Nasze najnowsze badania międzynarodowe, w tym ankiety przeprowadzone w dziewięciu krajach i obszerne studia przypadków, ujawniły przykrą rzeczywistość: zaledwie 8% organizacji społeczeństwa obywatelskiego realizuje obecnie politykę dotyczącą sztucznej inteligencji, a niemal 40% ma trudności z zapewnieniem prywatności danych podczas korzystania z tych narzędzi. Jak powiedział nam jeden z przedstawicieli Ghany, dostęp do jasnej polityki i wytycznych to nie luksus, to warunek przetrwania i odpowiedzialnego rozwoju.

Niniejsza mapa drogowa to nasza odpowiedź—szczegółowy proces przeznaczony dla OSO gotowych do przejścia od niepewności do celowego, opartego na wartościach działania.

Przewodnik "Mapa drogowa odpowiedzialnej sztucznej inteligencji dla organizacji społeczeństwa obywatelskiego" jest adresowany do organizacji społeczeństwa obywatelskiego chcących przejść od obawy przed AI do celowego działania.

Niezależnie od tego, mówimy o małej organizacji non-profit, dużej międzynarodowej organizacji pozarządowej czy też fundacji społecznej, proces definiowania zasad odpowiedzialnej sztucznej inteligencji jest zasadniczo taki sam: zaczyna się od szczerej rozmowy i kończy wspólnym zaangażowaniem.

Niniejszy przewodnik opiera się na metodologii opracowanej i przetestowanej przez autorkę w toku praktycznej pracy z różnymi organizacjami, których przypadki zostały podane jako praktyczne przykłady.

Co otrzymasz po zakończeniu tego procesu:

  • Jasne zrozumienie obecnej relacji twojej organizacji z AI dotyczące wykorzystywanych narzędzi, odczuwanych napięć oraz wartości, o które toczy się gra.

  • Zestaw 3-7 uporządkowanych pod względem ważności zasad odpowiedzialnej AI dostosowanych do misji i kontekstu twojej organizacji.

  • Definicje, które sprawiają, że zasady te nabiorą dla twojego zespołu znaczenia i będą możliwe do realizacji.

  • Pęd ku strukturom i politykom dotyczącym zarządzania (które omówimy w kolejnych przewodnikach z tej serii) / (które znajdziesz tutaj)

Podejście: Patrz → Twórz → Buduj

Niniejszy przewodnik opiera się na trójfazowej metodologii:

  • PATRZ: Otwarcie przestrzeni, aby dostrzec to, co jest - opisanie obecnego krajobrazu AI, ujawnienie napięć, zgromadzenie istniejącej wiedzy (przepisy, punkty odniesienia, obecne wartości organizacji). Tę fazę można w dużej mierze zrealizować jako przygotowanie przed zebraniem zespołu.

  • TWÓRZ: Nieuporządkowana przestrzeń przeznaczona do współpracy, w której syntetyzujesz spostrzeżenia dotyczące zasad, definiujesz struktury zarządzania i dokumentujesz odpowiednią politykę. Tutaj zespół pracuje razem.

  • BUDUJ: Wdrożenie i operacjonalizacja - tutaj zasady spotykają się z praktyką za sprawą oceny ryzyka, strategii łagodzenia skutków i bieżących kontroli zarządzania. To tutaj wchodzą do działania zdefiniowane struktury zarządzania, a wyznaczone osoby lub zespoły obejmują odpowiedzialność za bieżące monitorowanie i rozliczalność.

Uwaga dotycząca tempa: Tej pracy nie można wykonywać w pośpiechu. Zdefiniowanie zasad podczas pojedynczego, jednogodzinnego spotkania tworzy dokumenty, które zbierają kurz. Zaplanuj czas na przygotowanie (PATRZ) oraz co najmniej jedną 90-minutową sesję wspólnego tworzenia, a następnie czas na syntezę i dopracowanie wniosków. Ta Inwestycja jest tego warta. Wypracowane zasady będą przyświecać każdej decyzji związanej ze sztuczną inteligencją podejmowanej przez twoją organizację.

W ciągu następnych tygodni odwiedzaj Hive Mind i zaglądaj do części przewodnika PATRZ, TWÓRZ i BUDUJ, w której znajdziesz treści , które pomogą tobie i twojej organizacji w opracowaniu zasad odpowiedzialnej sztucznej inteligencji.

Plan publikacji mapy drogowej

Faza 1: PATRZ

Faza 2: UTWÓRZ

  • Część 5a: Przełożenie zasad na reguły – Praktyczny przewodnik po pisaniu wewnętrznego podręcznika.

Faza 3: BUDUJ

  • Część 6: Wprowadzenie do oceny ryzyka – Zrozumienie krajobrazu bezpieczeństwa.

  • Część 6a: Przewodnik po ocenie ryzyka – Szczegółowe narzędzia do bieżącego monitorowania i odpowiedzialności.

Twoja opinia ma znaczenie

Co sądzisz o tym tekście? Poświęć 30 sekund na podzielenie się z nami swoją opinią i pomóż nam tworzyć wartościowe treści dla społeczeństwa obywatelskiego!

Formularz wkrótce


Niniejszy artykuł jest wprowadzeniem do serii "Mapa drogowa odpowiedzialnej AI dla OSO" opracowanej przy okazji projektu AI for Social Change realizowanego przez TechSoup w ramach programu aktywizmu cyfrowego przy wsparciu Google.org.