Nasze najnowsze badania międzynarodowe, w tym ankiety przeprowadzone w dziewięciu krajach tak samo jak i wiele przypadków, ujawniły przykrą rzeczywistość: zaledwie 8% organizacji społeczeństwa obywatelskiego realizuje obecnie politykę dotyczącą sztucznej inteligencji (AI), a niemal 40% ma trudności z zapewnieniem prywatności danych podczas korzystania z tych narzędzi. Jak powiedział nam jeden z przedstawicieli NGO z Ghany, dostęp do jasnej polityki i wytycznych to nie luksus, to warunek przetrwania i odpowiedzialnego rozwoju.

Niniejsza mapa drogowa to nasza odpowiedź—szczegółowy proces przeznaczony dla NGOsów gotowych do przejścia od niepewności do celowego, opartego na wartościach działania.

Przewodnik ,,Mapa drogowa odpowiedzialnego AI dla NGOsów" jest adresowany do organizacji społeczeństwa obywatelskiego chcących przejść od obawy przed AI do celowego działania.

Niezależnie od tego, mówimy o małej organizacji non-profit, dużej międzynarodowej organizacji pozarządowej czy też fundacji społecznej, proces definiowania zasad odpowiedzialnej sztucznej inteligencji jest zasadniczo taki sam: zaczyna się od szczerej rozmowy i kończy się wspólnym zaangażowaniem.

Niniejszy przewodnik opiera się na metodologii opracowanej i przetestowanej przez autorkę w toku praktycznej pracy z różnymi organizacjami, których przypadki zostały podane jako praktyczne przykłady.

Co otrzymasz po zakończeniu tego procesu:

  • Jasne zrozumienie obecnej relacji twojej organizacji z AI dotyczące wykorzystywanych narzędzi, odczuwanych napięć oraz wartości, o które toczy się gra.

  • Zestaw 3-7 uporządkowanych pod względem ważności zasad odpowiedzialnej AI dostosowanych do misji i kontekstu twojej organizacji.

  • Definicje, które sprawiają, że zasady te nabiorą dla twojego zespołu znaczenia i będą możliwe do realizacji.

  • Pęd ku strukturom i politykom dotyczącym zarządzania (które omówimy w kolejnych przewodnikach z tej serii) / (które znajdziesz tutaj)

Podejście: Patrz → Twórz → Buduj

Niniejszy przewodnik opiera się na trójfazowej metodologii:

  • PATRZ: Otwarcie przestrzeni, aby dostrzec to, co jest - opisanie obecnego krajobrazu AI, ujawnienie napięć, zgromadzenie istniejącej wiedzy (przepisy, punkty odniesienia, obecne wartości organizacji). Tę fazę można w dużej mierze zrealizować jako przygotowanie przed zebraniem zespołu.

  • TWÓRZ: Nieuporządkowana przestrzeń przeznaczona do współpracy, w której syntetyzujesz spostrzeżenia dotyczące zasad, definiujesz struktury zarządzania i dokumentujesz odpowiednią politykę. Tutaj zespół pracuje razem.

  • BUDUJ: Wdrożenie i operacjonalizacja - tutaj zasady spotykają się z praktyką za sprawą oceny ryzyka, strategii łagodzenia skutków i bieżących kontroli zarządzania. To tutaj wchodzą do działania zdefiniowane struktury zarządzania, a wyznaczone osoby lub zespoły obejmują odpowiedzialność za bieżące monitorowanie i rozliczalność.

Uwaga dotycząca tempa: Tej pracy nie można wykonywać w pośpiechu. Zdefiniowanie zasad podczas pojedynczego, jednogodzinnego spotkania tworzy dokumenty, które zbierają kurz. Zaplanuj czas na przygotowanie (PATRZ) oraz co najmniej jedną 90-minutową sesję wspólnego tworzenia, a następnie czas na syntezę i dopracowanie wniosków. Ta Inwestycja jest tego warta. Wypracowane zasady będą przyświecać każdej decyzji związanej ze sztuczną inteligencją podejmowanej przez twoją organizację.

Zaglądaj do części przewodnika PATRZ, TWÓRZ i BUDUJ, w których znajdziesz treści , które pomogą tobie i twojej organizacji w opracowaniu zasad odpowiedzialnej sztucznej inteligencji.

Mapa Drogowa Odpowiedzialnego AI dla NGOsów:

Faza 1: PATRZ

Faza 2: UTWÓRZ

Faza 3: BUDUJ

Twoja opinia ma znaczenie


Co sądzisz o tym tekście? Poświęć 30 sekund, aby podzielić się swoją opinią i pomóc nam tworzyć wartościowe treści dla społeczeństwa obywatelskiego!


Niniejszy artykuł jest wprowadzeniem do serii "Mapa drogowa odpowiedzialnej AI dla OSO" opracowanej przy okazji projektu AI for Social Change realizowanego przez TechSoup w ramach programu aktywizmu cyfrowego przy wsparciu Google.org.

O autorce

Ayşegül Güzel jest architektką odpowiedzialnego zarządzania AI, która pomaga organizacjom przekształcić obawy związane z AI w godne zaufania systemy. Jej kariera łączy społeczne przywództwo na szczeblu kierowniczym, w tym założenie Zumbara, największej na świecie sieci banków czasu, z techniczną praktyką AI jako certyfikowana audytorka AI i była badaczka danych. Przeprowadza organizacje przez kompletne transformacje w zakresie zarządzania AI i przeprowadza techniczne audyty AI. Prowadzi wykłady w ELISAVA i wygłasza międzynarodowe przemówienia na temat podejścia do technologii zorientowanego na człowieka. Dowiedz się więcej na stronie https://aysegulguzel.info lub zapisz się do jej newslettera „AI of Your Choice” na stronie https://aysegulguzel.substack.com.