Organizacje pozarządowe działają na rzecz dobra wspólnego, w imieniu osób w trudnej sytuacji, albo dotykając tematów poufnych. Dlatego tak ważne jest, by wykorzystywać sztuczną inteligencję z rozwagą – z poszanowaniem prywatności, transparentnością i świadomością ryzyk. Poniżej przedstawiamy 9 dobrych praktyk, które pomogą korzystać z AI mądrze i bezpiecznie.


Podstawowe zasady:

  • Chroń dane osobowe. Zawsze.

  • Traktuj informacje organizacyjne jak tajemnicę – nawet w AI.

  • Mów, o tym że korzystasz z AI.

  • To człowiek podejmuje decyzje.

  • Sprawdzaj, zanim udostępnisz.

  • Zadbaj o język włączający.

  • Planuj i oceniaj wpływ korzystania z AI.

  • Pomyślmy o planecie – AI też zostawia ślad.

  • Nie wiesz? Zapytaj!

1. Chroń dane osobowe. Zawsze.

Zacznijmy od podstaw – czyli ochrony danych osobowych. W NGO-sach, często mamy dostęp do wrażliwych informacji: imion, adresów, numerów PESEL, danych zdrowotnych czy historii życiowych osób, którym pomagamy. Te dane nie mogą trafić do AI bez uprzedniego zanonimizowania.

Zanim wprowadzisz jakiekolwiek dane do narzędzia opartego na AI, usuń wszystkie elementy, które mogą umożliwić identyfikację osoby. Imię? Zastąp „Osobą 1”. Adres? Niepotrzebny. PESEL? Absolutnie nie. AI nie potrzebuje takich danych, by wygenerować treść czy analizę, a Ty unikasz ryzyka poważnego naruszenia prywatności. Dlaczego to ważne? Bo zaufanie osób, z którymi pracujemy, opiera się m.in. na poczuciu bezpieczeństwa. Nie ryzykujmy!

2. Traktuj informacje organizacyjne jak tajemnicę – nawet w AI

Choć sztuczna inteligencja może pomóc w tworzeniu materiałów promocyjnych czy analizie projektów, nie oznacza to, że można dzielić się z nią wszystkim bez ograniczeń. Szczegóły dotyczące partnerów, budżetów, wewnętrznych procedur czy umów lepiej zachować dla siebie.

Jeśli tworzysz opis projektu i chcesz poprosić AI o pomoc w dopracowaniu tekstu – świetnie. Jednak zamiast pisać szczegółowo „Projekt dla osób w kryzysie bezdomności w Noclegowni Pomoc w Łodzi z budżetem 100 000 zł” wystarczy informacja bardziej ogólna, np.: „Projekt wsparcia społecznego w dużym mieście”. Efekt będzie ten sam, a ryzyko wycieku informacji – dużo mniejsze.

Wiele narzędzi AI działa na zasadzie uczenia się na podstawie wprowadzanych danych, szczególnie gdy korzystamy z wersji darmowych.. Nie zawsze wiadomo, gdzie i jak są przechowywane i wykorzystywane są informacje, którymi się dzielimy, Zachowajmy ostrożność i chrońmy poufność naszych organizacji.

3. Mów, o tym że korzystasz z AI

Korzystasz z AI? Chwal się tym! Transparentność buduje zaufanie zarówno wśród osób z naszego zespołu, jak i partnerów/ek czy odbiorców/czyń działań. Jeśli w raporcie, prezentacji lub grafice korzystasz z pomocy sztucznej inteligencji, poinformuj o tym otwarcie – choćby krótko, na końcu dokumentu lub w stopce materiału.

Transparentność to nie tylko fakt użycia AI, ale też jasne określenie, w jakim stopniu sztuczna inteligencja pomogła. Czy AI tylko podpowiedziało pomysły lub poprawiło stylistykę tekstu? A może stworzyło całą narrację lub wygenerowało grafikę? A może tylko posłużyło jako narzędzie do znalezienia inspiracji, ale ostateczny efekt to Twoja własna praca?

Takie wyjaśnienia mają duże znaczenie, bo pokazują, że masz kontrolę nad procesem i nie przekładasz całej odpowiedzialności na maszynę. Dają też odbiorcom jasny obraz, czego mogą się spodziewać i jak interpretować przygotowane materiały. Dzięki otwartości unikniesz nieporozumień i pokażesz, że traktujesz temat poważnie.

4. To człowiek podejmuje decyzje

Choć może się wydawać, że AI „wie lepiej”, nie zapominajmy: to my odpowiadamy za decyzje, które podejmujemy z jej pomocą. Sztuczna inteligencja może zaproponować rozwiązania, wesprzeć w analizie danych, przedstawić argumenty. Ale to Ty, jako osoba zaangażowana w działania organizacji, masz ostatnie słowo.

W sektorze społecznym pracujemy z ludźmi i dla ludzi – i to człowiek, z całą swoją empatią, intuicją i doświadczeniem, musi ocenić, co w danej sytuacji jest słuszne. AI nie zna kontekstu emocjonalnego, nie rozumie subtelnych niuansów relacji międzyludzkich, nie podejmuje odpowiedzialności. Każdą decyzję opartą na analizie AI musimy przemyśleć samodzielnie – i traktować AI jako pomocnika, nie szefa.

5. Sprawdzaj, zanim udostępnisz

AI potrafi pisać piękne teksty, ale czasem… zmyśla. To zjawisko nazywa się „halucynacjami” – czyli generowaniem nieprawdziwych, choć przekonujących informacji. Może podać nieistniejące źródła, pomylić daty, a nawet przypisać komuś działania, których nigdy nie podjął.

Zanim użyjesz tekstu wygenerowanego przez AI w swojej pracy, sprawdź go. Porównaj z innymi źródłami, zajrzyj do oficjalnych danych, skonsultuj z kimś z zespołu. To szczególnie ważne w NGO, gdzie mówimy o wrażliwych tematach i realnych ludziach. Dezinformacja może wyrządzić poważne szkody – nie tylko organizacji, ale też osobom, które wspierasz. Ostrożność to podstawa.

6. Zadbaj o język włączający

Sztuczna inteligencja uczy się na ogromnych zbiorach danych, które mogą zawierać stereotypy i uprzedzenia. AI – nawet jeśli działa „neutralnie” – może nieumyślnie pomijać perspektywy różnych grup społecznych lub powielać uproszczone, a czasem krzywdzące narracje. To sprawia, że organizacje pozarządowe, które na co dzień działają na rzecz równości, przeciwdziałania dyskryminacji i wspierania osób w trudnej sytuacji, powinny zachować szczególną ostrożność. Język, którym się posługujemy, ma znaczenie – a wygenerowany przez AI tekst nie zawsze uwzględnia kontekst społeczny czy emocjonalny, w jakim pracujemy.

Zanim opublikujemy treść stworzoną przy wsparciu sztucznej inteligencji, warto ją uważnie przeczytać i zadać sobie kilka prostych pytań: czy język tekstu jest neutralny i zrozumiały? Czy nie upraszcza doświadczeń osób zmagających się z wykluczeniem? Czy nie narzuca etykiet, które zamiast wzmacniać, mogą zawstydzać lub stygmatyzować?

Dla przykładu – AI może wygenerować zdanie: „Pomagamy biednym ludziom, którzy nie mają nic”. Choć może brzmieć pozornie empatycznie, zawiera ocenne sformułowania i może przyczynić się do wzmacniania stereotypów. Znacznie bardziej włączającą i pełną szacunku wersją będzie: „Wspieramy osoby doświadczające ubóstwa lub kryzysu życiowego”. Taka zmiana jednego zdania pokazuje, jak duże znaczenie ma język i wrażliwość na odbiorcę.

7. Planuj i oceniaj wpływ korzystania z AI

Chcesz wdrożyć sztuczną inteligencję w działaniach swojej organizacji? To świetnie! Jednak zanim ruszysz z kopyta, zatrzymaj się na moment i zastanów: jak to może wpłynąć na osoby, z którymi pracujesz, na zespół, a także na całą misję NGO? AI to potężne narzędzie, ale jak każde narzędzie – trzeba wiedzieć, kiedy i jak go używać, żeby naprawdę nam pomagało.

Zaplanuj regularne „przeglądy techniczne” w organizacji – sprawdźcie, jak działają konkretne rozwiązania, czy są przydatne, czy intuicyjne dla zespołu, czy nie generują niepotrzebnych komplikacji. Może się okazać, że coś, co miało usprawnić pracę, w praktyce tylko ją wydłuża. Albo przeciwnie – że pomaga w sposób, którego się nie spodziewaliśmy.

8. Pomyślmy o planecie – AI też zostawia ślad

Choć korzystanie ze sztucznej inteligencji może wydawać się „niewidzialne” – ot, klikamy, wpisujemy, dostajemy odpowiedź – to tak naprawdę każde zapytanie skierowane do AI zużywa całkiem sporo energii. Jeśli Twoja organizacja stara się działać w duchu odpowiedzialności ekologicznej – oszczędza papier, segreguje odpady, dba o zrównoważony transport – warto pamiętać, że technologia też ma swój „ślad węglowy”. AI nie jest tu wyjątkiem.

Co możesz zrobić? Na przykład wybierać lżejsze, mniej energochłonne rozwiązania Możesz też korzystać z AI tylko wtedy, gdy naprawdę jej potrzebujesz, a nie „na wszelki wypadek”. Dobrze też sprawdzić, czy dostawca danego narzędzia stosuje zielone centra danych albo inwestuje w odnawialne źródła energii. To wszystko pozwala nam być konsekwentnymi w naszych działaniach. Bo technologia i ekologia wcale nie muszą się wykluczać.

9. Nie wiesz? Zapytaj!

Nie musisz być ekspertem/ką od AI, by z niej korzystać. Jeśli masz wątpliwości, czy dane można wprowadzić do AI, czy tekst nie narusza niczyjej prywatności, albo jak zabezpieczyć swoją pracę – zapytaj.

Być może w Twojej organizacji są osoby, które już zgłębiły temat. Jeśli nie – szukaj pomocy poza nią. Coraz więcej instytucji i fundacji oferuje bezpłatne kursy online, webinary czy poradniki na temat odpowiedzialnego korzystania z technologii.

Dobrym pomysłem jest też stworzenie wewnętrznej przestrzeni edukacyjnej – prostego przewodnika lub krótkiego szkolenia, które pomoże całemu zespołowi poczuć się pewniej. AI rozwija się szybko, ale z dobrym przygotowaniem można z niej korzystać bezpiecznie i skutecznie.

Na koniec – kilka słów otuchy

AI to nie wróg. To narzędzie, które – używane odpowiedzialnie – może realnie ułatwić pracę w NGO: oszczędzać czas, pomagać w analizach, inspirować do nowych działań. Ale jak każde narzędzie, wymaga ostrożności, wiedzy i etycznego podejścia.

Nie musimy się jej bać, ale bądźmy czujni. Pamiętajmy, że sektor pozarządowy działa na rzecz ludzi – a to zobowiązuje. Korzystajmy z AI mądrze, z szacunkiem do innych i zdrowym rozsądkiem. Bo przyszłość technologii to też nasza przyszłość – i to od nas zależy, jak ją kształtujemy.

Disclaimer: Do przygotowania tego tekstu wykorzystano sztuczną inteligencję – wsparcie AI zostało użyte na etapie redakcji i korekty. Wszystkie treści zostały jednak ostatecznie sprawdzone i zatwierdzone przez człowieka.

Autorka: Ewa Patyk

Zdjęcie w tle: Andrii Zastrozhnov