Zastosowanie AI w celu pisania wniosków konkursowych/grantowych to bardzo ważny i wrażliwy temat – mamy wiele wątpliwości co do takiego postępowania. Myślimy, że coraz więcej osób i organizacji z sektora NGO ma podobny dylemat: z jednej strony jest presja na efektywność, szybkie pisanie wniosków, automatyzację; z drugiej – pytania o autentyczność, etykę i odpowiedzialność społeczną.
Nasza organizacja, działając na rzecz dobra wspólnego, opiera swoje działania na wartościach takich jak autentyczność, uczciwość, przejrzystość i szacunek dla godności człowieka. W związku z dynamicznym rozwojem technologii sztucznej inteligencji (AI) oraz jej rosnącą obecnością w sektorze NGO, czujemy się odpowiedzialni za kształtowanie i stosowanie zasad etycznych w zakresie wykorzystania AI w naszych działaniach.
Niniejszy kodeks ma na celu zapewnienie, że korzystanie z narzędzi AI w procesach takich jak pisanie wniosków, raportowanie, zbieranie danych czy tworzenie treści komunikacyjnych, odbywa się w sposób odpowiedzialny, transparentny i zgodny z wartościami naszej organizacji.
1.1. Priorytetem jest autentyczność – AI może wspierać procesy techniczne, ale nie zastępuje człowieka w tworzeniu treści, które dotyczą realnych ludzi, ich historii i doświadczeń. Wszystkie informacje zawarte w wnioskach grantowych, raportach czy komunikatach muszą pochodzić z rzetelnych, autentycznych źródeł. AI nie może zmieniać ani wypaczać prawdziwych historii w celu osiągnięcia lepszego efektu.
1.2. Wrażliwość na kontekst społeczny – W szczególności w przypadku wniosków dotyczących grup marginalizowanych, osób w trudnej sytuacji życiowej lub dotkniętych traumą, AI nie powinno wykorzystywać technik, które mogłyby zniekształcić lub spłaszczyć przedstawiane doświadczenia.
2.1. Pełna transparentność – W przypadku korzystania z narzędzi AI w procesach tworzenia dokumentów, raportów lub komunikacji, organizacja zobowiązuje się do jawności w stosunku do partnerów, grantodawców i innych interesariuszy. Wszelkie użycie AI powinno być jasno i jednoznacznie wskazane.
2.2. Zachowanie odpowiedzialności – Ostateczna odpowiedzialność za jakość, poprawność i etyczność treści spoczywa na członkach organizacji. AI powinno jedynie wspierać, a nie zastępować człowieka w kluczowych decyzjach dotyczących treści i strategii.
3.1. Zakaz wykorzystywania AI do manipulacji – AI nie może być używane do manipulowania faktami, zmiany kontekstu czy wprowadzania treści, które mogą wprowadzać w błąd grantodawców, darczyńców czy odbiorców. Każdy projekt realizowany przez organizację powinien być zgodny z prawdą i przedstawiać rzeczywisty stan rzeczy.
3.2. Odpowiedzialność za prawdziwość danych – Jeśli AI jest używane do analizy danych, przetwarzania informacji lub przygotowywania raportów, organizacja musi mieć pewność, że wykorzystywane narzędzia są dokładne i nie prowadzą do halucynacji danych (wprowadzanie błędnych lub niezweryfikowanych informacji).
4.1. AI jako wsparcie, nie zastępstwo – AI może pełnić rolę asystenta w organizacji, pomagając w generowaniu pomysłów, optymalizacji tekstów, wyszukiwaniu informacji czy analizie danych. Jednak decyzje strategiczne, twórcze oraz wszystkie procesy wymagające refleksji moralnej i etycznej powinny pozostawać w rękach ludzi.
4.2. Rozwój kompetencji ludzkich – Korzystanie z AI nie zwalnia członków organizacji z odpowiedzialności za rozwój swoich kompetencji, w tym w zakresie oceny etycznej i technologicznej wykorzystywanych narzędzi. Należy zapewnić odpowiednie szkolenia dla pracowników i wolontariuszy w celu bezpiecznego i odpowiedzialnego korzystania z technologii.
5.1. Zgodność z prawem – Wszystkie działania związane z używaniem AI muszą być zgodne z obowiązującymi przepisami prawa, w tym RODO (ogólne rozporządzenie o ochronie danych osobowych), prawa autorskiego oraz innymi regulacjami dotyczącymi ochrony danych osobowych i wrażliwych.
5.2. Zachowanie zasad etycznych – Korzystanie z AI musi być zgodne z zasadami etyki organizacji oraz ogólnymi standardami etycznymi w sektorze NGO. Wszystkie projekty i wnioski grantowe muszą szanować godność osób, z którymi pracujemy, oraz nie wykorzystywać ich sytuacji w sposób, który mógłby naruszyć ich prywatność lub prawo do godnego traktowania.
6.1. Ochrona danych osobowych – Wszelkie dane osobowe, w tym dane wrażliwe, przetwarzane przez AI muszą być odpowiednio chronione zgodnie z obowiązującymi regulacjami. Organizacja zobowiązuje się do wykorzystywania narzędzi AI, które posiadają wysokie standardy bezpieczeństwa i ochrony prywatności.
6.2. Zgoda i przejrzystość – Wszelkie procesy wykorzystujące AI, w których gromadzone są dane osób trzecich, muszą opierać się na ich świadomej zgodzie, a także na przejrzystości w kwestii celu zbierania tych danych.
7.1. Stały przegląd praktyk – Organizacja zobowiązuje się do regularnego monitorowania sposobów wykorzystywania AI w swoich działaniach. Przeglądy te mają na celu ocenę zgodności z kodeksem, identyfikację ewentualnych zagrożeń oraz aktualizację wytycznych w oparciu o nowe wyzwania i zmieniające się otoczenie technologiczne.
7.2. Ewaluacja wpływu – Co najmniej raz w roku powinien być przeprowadzany przegląd wpływu stosowania AI na beneficjentów, pracowników, wolontariuszy i interesariuszy organizacji. Ewaluacja ta powinna uwzględniać m.in. kwestie jakości danych, skutków społecznych oraz potencjalnych nierówności lub niezamierzonych konsekwencji.
7.3. Raportowanie wyników – Wyniki monitoringu i ewaluacji mogą być przedstawiane w rocznym raporcie organizacji lub w osobnym dokumencie, dostępnym dla zainteresowanych stron. Ma to na celu zwiększenie transparentności i ciągłe doskonalenie praktyk.
8.1. Zgłaszanie wątpliwości – Każda osoba związana z organizacją (pracownik, wolontariusz, partner, beneficjent) ma prawo zgłosić wątpliwości dotyczące nieetycznego lub niewłaściwego użycia AI. Organizacja zapewnia bezpieczny i anonimowy kanał zgłoszeń.
8.2. Procedura reagowania – Po otrzymaniu zgłoszenia organizacja zobowiązuje się do niezwłocznego podjęcia działań wyjaśniających. Zostanie powołana komisja lub osoba odpowiedzialna za przeanalizowanie sprawy i zaproponowanie odpowiednich środków zaradczych.
8.3. Ochrona zgłaszających – Osoby zgłaszające naruszenia nie mogą ponosić żadnych negatywnych konsekwencji z tytułu zgłoszenia (tzw. whistleblower protection). Organizacja zapewnia ochronę przed represjami oraz gwarantuje poufność.
9.1. Tworzenie przewodników i szkoleń – Organizacja opracuje i udostępni wewnętrzne przewodniki dotyczące etycznego wykorzystania AI, zawierające przykłady zastosowań, ryzyka i rekomendacji. Pracownicy i wolontariusze powinni mieć dostęp do szkoleń w tym zakresie.
9.2. Priorytet człowieka i kontekstu lokalnego – AI nie powinno być używane w oderwaniu od lokalnych realiów i kultury społecznej. Tworzenie treści lub analiz z udziałem AI musi uwzględniać lokalny kontekst, głos społeczności oraz potencjalne skutki.
9.3. Współpraca z ekspertami – W procesie wdrażania lub oceny technologii AI zaleca się współpracę z ekspertami zewnętrznymi, w tym z dziedzin etyki, ochrony danych, prawa czy technologii, celem zwiększenia jakości i bezpieczeństwa stosowanych praktyk.
9.4. Testowanie narzędzi przed wdrożeniem – Każde narzędzie AI powinno zostać przetestowane przed jego oficjalnym wdrożeniem, z uwzględnieniem ryzyka etycznyego, jakości danych oraz potencjalnych uprzedzeń algorytmicznych.
Jako organizacja działająca na rzecz dobra wspólnego, zobowiązujemy się do stosowania AI w sposób odpowiedzialny i etyczny, zgodnie z wytycznymi tego kodeksu. Wszystkie działania związane z technologią AI muszą być przeprowadzane w duchu poszanowania godności człowieka, rzetelności i uczciwości. Nasze decyzje będą zawsze kierowane dobrem osób, którym służymy, i ich autentycznymi potrzebami, a także dbałością o transparentność i sprawiedliwość.