Jeżeli jest w tobie wiele sprzecznych uczuć, to nie jesteś sam. Jako przewodniczka organizacji po ich podróży przez świat odpowiedzialnej sztucznej inteligencji nauczyłam się, że napięcie nie jest problemem do rozwiązania. To mądrość. To punkt wyjścia dla wszystkiego, co następuje później.

Napięcie jest rzeczywiste - i coś ci mówi

Organizacje społeczeństwa obywatelskiego odczuwają presję. Fundatorzy pytają o twoją strategię AI. Twój zespół już korzysta z narzędzi, których formalnie nie zatwierdziłeś. Technologia rozwija się szybciej niż twoja polityka. A pod tym wszystkim kryje się uporczywe pytanie: Jak korzystać z tych potężnych narzędzi nie tracąc tego, co czyni nas tym, kim jesteśmy?

Napięcie objawia się w w konkretnych dylematach:

  • Wydajność czy autentyczność: Sztuczna inteligencja może pomóc nam zrobić więcej, ale czy "więcej" służy naszej misji, czy tylko wypełnia nasze kalendarze?

  • Innowacja czy bezpieczeństwo: Chcemy myśleć przyszłościowo, ale nie kosztem społeczności, którym służymy.

  • Dostępność czy prywatność: Sztuczna inteligencja może nam pomóc dotrzeć do większej liczby osób, ale kosztem jakich danych?

Na te pytania nie ma jasnych odpowiedzi. Występują one w szerokim spektrum, a miejsce, w którym znajdzie się twoja organizacja, będzie się różnić od miejsca, w którym znajdzie się inna. To nie jest słabość. Taka jest natura pracy opartej na wartościach.

Spektrum dylematów związanych z AI

  • Sztywne wskaźniki a sprawiedliwe wyniki

  • Krótkoterminowy zysk a długoterminowa rentowność

  • Wartość dla akcjonariuszy a wartość dla zainteresowanych stron

  • Szybkość a dokładność

  • Przejrzystość a ochrona własności intelektualnej

  • Odpowiedzialność a autonomia (np. odpowiedzialność prawna, moralna)

  • Zwiększenie możliwości a zależność poznawcza

  • Skalowalność a niuanse zależne od kontekstu

  • Bezpieczeństwo a prywatność (np. kamery oparte na sztucznej inteligencji)

  • Suwerenność a globalne zarządzanie (geopolityka)

  • Sztuka tworzona przez człowieka a twórczość AI (kultura, znaczenie i opłacalność ekonomiczna)

  • Postęp a planeta (wpływ na środowisko)

Czujesz dyskomfort? To sygnał. Kieruje cię w stronę tego, na czym naprawdę ci zależy.

Dlaczego OSO powinny przewodzić, a nie podążać za innymi

Oto, gdzie branża technologiczna często się myli: w momencie, gdy algorytm wkracza do prawdziwego świata, zaczyna segregować podania o pracę, rekomendować treści, przydzielać zasoby, przestaje być systemem o charakterze czysto technicznym. Zaczyna splatać się z relacjami międzyludzkimi, władzą instytucjonalną i zaufaniem społeczności.

To nie są problemy inżynieryjne. To problemy, z którymi organizacje społeczeństwa obywatelskiego borykają się od dziesięcioleci.

Wiesz już, jak postępować ze złożonością. Wiesz, jak słuchać marginalizowanych głosów. Wiesz, jak podejmować decyzje oparte na wartościach w warunkach niepewności, przy ograniczonych zasobach, w sytuacjach, w których stawka jest głęboko ludzka.

Rozmowa na temat zarządzania sztuczną inteligencją wymaga właśnie takiej wiedzy.

A mimo to OSO zbyt często stoją z boku, zakładając, że jest to rozmowa dla technologów, korporacji i organów regulacyjnych. Ryzyko stania z boku jest realne: to inni zdefiniują zasady, przy czym te zasady mogą nie odzwierciedlać twoich wartości lub potrzeb społeczności, którym służysz.

Szansa jest równie realna: społeczeństwo obywatelskie może kształtować sposób rozwoju, wdrażania i kontrolowania sztucznej inteligencji, a nie tylko reagować na decyzje podejmowane gdzie indziej.

Nie chodzi o to, by stać się ekspertem od sztucznej inteligencji. Chodzi o to, byś zajął zajęcie przy stole jako ekspert od wartości.

Napięcia jako drzwi do zasad

Jak zatem przejść od napięcia do klarowności?

Odpowiedzią nie jest rozwiązanie napięcia. Chodzi o to, by je nazwać. Twoje napięcia ujawniają twoje wartości. A raz wyartykułowane wartości stają się zasadami.

Weźmy pod uwagę edukacyjną organizację non-profit, Khan Academy. Wprowadzając Khanmigo, narzędzie do nauki oparte na AI, nie zaczęli od specyfikacji technicznych. Zaczęli od dogmatów, zasad takich jak "Osiąganie celów edukacyjnych", "Autonomia ucznia" czy "Przejrzystość i odpowiedzialność". Zasady te wyłoniły się z jasnego spojrzenia na to, co może pójść źle i co chcieli chronić.

W odniesieniu do zasady "Osiąganie celów edukacyjnych" opracowali konkretne zabezpieczenia: "Istnienie mechanizmów zapobiegających wykorzystanie Ai w celach innych niż edukacja". Po przeanalizowaniu ryzyka niewłaściwego wykorzystania, ocenili je jako wysokie i odpowiednio opracowali strategie łagodzące jego skutki, począwszy od systemów moderacji, poprzez powiadamianie rodziców, aż po jasno określone warunki korzystania z usługi.

Zasady były najważniejsze. Dopiero na ich podstawie powstały praktyczne zabezpieczenia.

Podobnie rzecz miała się w przypadku międzynarodowej sieci wsparcia przedsiębiorców społecznych ChangemakerXchange (CXC). Ich podróż po AI rozpoczęła się od szczerych rozmów na temat napięć. Jak stanowi ich manifest Mindful AI Manifesto : "Jesteśmy głęboko krytyczni, zwłaszcza wobec generatywnej sztucznej inteligencji, dostrzegając związane z nią ryzyko: ogromne obciążenie dla środowiska... tendencję do wzmacniania stronniczości... oraz potencjał do spłaszczania wyjątkowej ludzkiej kreatywności, od której zależy nasza praca".

Na podstawie tego uczciwego rozrachunku opracowali takie zasady, jak "Uważne użycie": , która brzmi następująco: "Ze sztucznej inteligencji nie korzysta się w sposób domyślny. Przed każdym ewentualnym użyciem, szczególnie w przypadku generatywnej sztucznej inteligencji, staramy się zatrzymać i zadać sobie pytanie: Czy do realizacji tego zadania naprawdę potrzeba sztucznej inteligencji? Czy jest to naprawdę zgrane z naszymi wartościami? Co tracę, korzystając z tego narzędzia?".

Obie organizacje zaczęły od tego samego pytania: Co chcemy chronić? Zasady tych podmiotów są różne, ponieważ różne są ich misje. Podobnie będzie w twoim przypadku.

Nie zaczynasz od zera

Jeśli definiowanie zasad sztucznej inteligencji brzmi zniechęcająco, to mam dla ciebie pocieszenie: globalna społeczność pracuje nad tym od lat.

Takie organizacje, jak Komisja Europejska, OECD, UNESCO i National Institute of Standards and Technology (NIST) pracują nad ramami dla godnej zaufania sztucznej inteligencji od 2019 r. Oto wspólne zasady, które wyłoniły się z ich pracy:

  • Przewodnia i nadzorcza rola człowieka - ludzie zachowują kontrolę nad kluczowymi decyzjami.

  • Ochrona prywatności i zarządzanie danymi - dane osobowe są chronione i wykorzystywane w sposób odpowiedzialny.

  • Przejrzystość - ludzie rozumieją, jak działają systemy AI i jaki mają na nich wpływ.

  • Sprawiedliwość i niedyskryminacja - sztuczna inteligencja nie utrwala stronniczości ani nie tworzy niesprawiedliwych wyników.

  • Odpowiedzialność - wyraźna odpowiedzialność za decyzje i ich konsekwencje.

  • Dobrostan społeczny i środowiskowy - sztuczna inteligencja powinna przynosić korzyści ludziom i społecznościom, jednocześnie minimalizując szkody zarówno dla społeczeństwa, jak i planety.

Powyższe ramy to punkt wyjścia, a nie szablon do skopiowania. Praca nie polega na przyjmowaniu cudzych zasad. To odkrywanie, które zasady mają największe znaczenie dla twojej organizacji, w twoim kontekście, dla twoich społeczności.

Na przykład, "sprawiedliwość" może mieć różne znaczenie w zależności od misji. Dla organizacji zajmującej się uchodźcami sprawiedliwość może oznaczać zapewnienie, by narzędzia tłumaczeniowe AI nie działały gorzej w przypadku mniej popularnych języków lub by zautomatyzowana weryfikacja nie stawiała w niekorzystnej sytuacji kandydatów z regionów objętych konfliktami. Dla organizacji zajmującej się ochroną środowiska sprawiedliwość może oznaczać zapewnienie, by dobór adresatów kampanii opartych na AI nie wykluczał społeczności o niskich dochodach, które są najbardziej dotknięte zanieczyszczeniem środowiska, a których algorytm raczej nie zidentyfikuje jako "donatorów o wysokiej wartości".

Samo słowo jest takie samo. Zdefiniowanie jego zastosowania należy do ciebie.

Dlaczego różnorodne głosy mają znaczenie

Jednym z najczęstszych błędów popełnianych przez organizacje jest traktowanie ustalania zasad jako ćwiczenia dla kierownictwa. Wąska grupa przygotowuje projekt dokumentu, rozsyła go w celu uzyskania komentarzy i uznaje zadanie za wykonane.

Takie podejście skutkuje zasadami, które dobrze wyglądają na papierze, ale nie sprawdzają się w praktyce. Osoby najbliżej związane z misją danej organizacji, takie jak pracownicy programowi, członkowie społeczności czy pracownicy pierwszej linii, często dostrzegają zagrożenia, których nie dostrzega kierownictwo. Posiadają oni również mądrość dotyczącą tego, co organizacja naprawdę ceni, a nie tylko tego, do czego aspiruje.

Manifest CXC wyłonił się z głębokiego wsłuchania się w głos całego zespołu. Ramy Khan Academy są utrzymywane przez wielofunkcyjną grupę roboczą obejmującą zespoły ds. produktów, danych i badań użytkowników, co gwarantuje, że ich podejście jest kształtowane przez różne perspektywy.

Proces tworzenia zasad jest równie ważny jak same zasady. Kiedy ludzie uczestniczą w określaniu tego, co ważne, stają się strażnikami tych wartości, a nie tylko odbiorcami notatki informującej o polityce organizacji.

Zasady, które żyją i oddychają

Oto prawda, która może przynieść pewną ulgę: pierwszy projekt nie będzie idealny. Nie musi taki być.

Zasady odpowiedzialnej sztucznej inteligencji to żywe dokumenty. Ewoluują one wraz ze zmianami technologicznymi, pogłębiającym się zrozumieniem oraz wyciąganiem wniosków z tego, co działa, a co nie.

CXC dokonuje przeglądu swoich dokumentów AI co sześć miesięcy. Khan Academy stale ocenia swoje ramy poprzez demonstracje, pętle informacji zwrotnych i zaangażowanie interesariuszy. Obie organizacje traktują swoje zasady nie jako gotowe produkty, ale jako ciągłe rozmowy.

Nie oznacza to, że zasady są niejasne lub niezobowiązujące. Oznacza to, że są one zakorzenione w rzeczywistości i reagują na ciągłe zmiany krajobrazu technologicznego.

Niech twoim celem będzie "wersja pierwsza", a nie "wersja ostateczna". Celem jest wykonanie pierwszego kroku, a nie doskonałość.

Zaproszenie do wykonania pierwszego kroku

Jeżeli twoja organizacja nie określiła jeszcze swoich zasad AI, to zapraszam do wykonania pierwszego kroku.

Nie za pomocą dokumentu dotyczącego polityki. Nie przy użyciu listy kontrolnej. Ale poprzez rozmowę.

Zbierz swój zespół. Stwórz przestrzeń dla szczerości, w której ludzie będą mogli wyartykułować swoje nadzieje, obawy i napięcia. Zapytaj: Co staramy się chronić? Czego nie chcemy narazić na szwank? Jak wygląda odpowiedzialna sztuczna inteligencja w takiej organizacji jak nasza?

Odpowiedzi są już z wami w pokoju. Do was należy ich ujawnienie, nazwanie i wspólne zaangażowanie się w ich realizację.

Tak właśnie pracują przywódcy. Organizacje społeczeństwa obywatelskiego są do tego stworzone.

Gotowy na kolejny krok?

Pamiętaj, aby w ciągu następnych ośmiu tygodni regularnie zaglądać do Hive Mind, gdzie znajdziesz więcej artykułów z tej serii oraz szczegółowe przewodniki dla OSO na temat odpowiedzialnego korzystania z AI.

Aby pomóc ci przejść od inspiracji do działania, stworzyliśmy praktyczny dodatek do tego artykułu pt. "Mapa drogowa odpowiedzialnej sztucznej inteligencji dla organizacji społeczeństwa obywatelskiego”.

Poprowadzi on cię przez cały proces. Niezależnie od tego, czy jesteś małą organizacją non-profit, czy dużą międzynarodową organizacją pozarządową, ten przewodnik dostarczy jasnych wskazówek począwszy od punktu "powinniśmy coś zrobić z AI" aż do punktu "oto zasady, które nas poprowadzą".

Zasoby i dalsza lektura


To pierwszy artykuł z serii "Mapa drogowa odpowiedzialnej AI dla OSO" opracowanej przy okazji projektu AI for Social Change realizowanego przez TechSoup w ramach programu aktywizmu cyfrowego przy wsparciu Google.org.

O autorce

Ayşegül Güzel jest architektem odpowiedzialnego zarządzania sztuczną inteligencją, który pomaga organizacjom realizującym misję przekształcić lęk przed sztuczną inteligencją w godne zaufania systemy. Jej kariera łączy kierownicze przywództwo społeczne, w tym założenie Zumbara, największej na świecie sieci banków czasu, z prowadzeniem technicznej praktyki AI jako certyfikowany audytor AI i były analityk danych. Prowadzi organizacje przez cały proces transformacji zarządzania AI i przeprowadza techniczne audyty AI. Wykłada na uczelni ELISAVA i prowadzi międzynarodowe odczyty poświęcone podejściu do technologii zorientowanemu na człowieka. Dowiedz się więcej na stronie https://aysegulguzel.info lub zasubskrybuj jej biuletyn AI of Your Choice na stronie https://aysegulguzel.substack.com.