Człowiek nad sztuczną inteligencją, czyli kolejny punkt z listy ekspertów Komisji (UE) ws. samooceny AI

W ostatnich artykułach (klik1klik2) zaczęliśmy omawiać listę ekspertów Komisji (UE) do tzw. samooceny sztucznej inteligencji. Mamy za sobą rozliczalność (czy też odpowiedzialność), a dzisiaj zajmiemy się nadzorem i udziałem człowieka jak też wpływ AI na niego, co jest kwestią nie tylko prawną, ale i społeczno-psychologiczną. Są to niezwykle ważne elementy, bo wpływają przecież na kwestie odpowiedzialności czy spełnienie obowiązków prawnych (zarówno Rozporządzenia 2016/679 – RODO, jak i np. prawa bankowego – więcej tutaj czy stanowisk KNF), a jednocześnie sprawiać mogą wiele problemów, np. w kontekście tzw. black box. Przejdźmy więc do konkretów.

Pierwsze z zagadnień ma w zasadzie dwa wymiary. Eksperci Komisji (UE) wskazują tutaj, że sztuczna inteligencja może wspierać decyzje podejmowane przez człowieka, np. poprzez „podrzucanie” zaawansowanych analiz (ryzyka czy prawdopodobieństwa) czy konkretnych rekomendacji (np. robo-advisory) niejako „decydując” o tym w jakim kierunku pójdziemy jako ludzie. Eksperci podnoszą tutaj także, że ważnym aspektem działania AI jest odbiór człowieka względem systemów wykorzystujących sztuczną inteligencje na poziomie „jak człowiek”.

Samo zagadnienie w jakimś stopniu pokrywa się z wymaganiami w zakresie przejrzystości. Patrząc przez pryzmat listy, eksperci rekomendują odpowiedzenie sobie m.in. na pytanie o to czy stosowany system sztucznej inteligencji może rodzić wątpliwości u odbiorców końcowych co do tego kto podejmuje decyzję (czy de facto komunikuje się z użytkownikiem), tj. czy „rozmawiamy” z algorytmem czy człowiekiem. Przykładem takiej „konfuzji” może być np. chatbot. Te bardziej zaawansowane często na pierwszy rzut oka mogą wydawać się pracownikiem (konsultantem) operatora.

No alt text provided for this image

Rozciąga się więc to przede wszystkim na wymogi informacyjne, które mogą wynikać albo z konkretnych przepisów lub regulacji lub być ogólnym wymogiem pochodzącym np. z przepisów konsumenckich, które narzucają pewne wymogi w zakresie przejrzystości i wyraźnego określenia w jaki sposób podejmowane są decyzje.

Wpływ na autonomię człowieka? 

Czytając listę ekspertów Komisji (UE) możemy się też nieco zdziwić. Jednym z rekomendowanych przez nich jest to, które ma pozwolić na odpowiedź czy system sztucznej inteligencji może wpływać na ludzką autonomię poprzez nadmierne poleganie przez użytkowników na tym systemie. Prawda, że może budzić to zdziwienie?

Od razu należy się wyjaśnienie. Tego typu systemy, raczej, nie są jeszcze w powszechnym użyciu. Nie są one na tyle zaawansowane, aby realnie mogły wpływać na naszą autonomię. No, ale nie można tego wykluczyć. To trochę wizja rodem z terminatora. Chodzi o takie sytuacje, w których system oparty AI tworzy w użytkownikach końcowych takie przekonanie o jego nieomylności, że zatracają oni „zdrowy rozsądek” i powierzają decyzyjność algorytmowi, co przecież nie zawsze musi prowadzić do pozytywnych skutków.

Eksperci mimo to rekomendują, aby ocenić, czy mamy odpowiednie procedury w zakresie przeciwdziałania takim sytuacjom, a także czy taki system może wpłynąć na człowieka w nieprzewidziany i niechciany sposób. Od razu przychodzi mi na myśl, że taki system mógłby przykładowo wykorzystać nasze emocje (bazując na pozyskanych informacjach dokonać manipulacji) i skłonić do niekorzystnego rozporządzenia naszym majątkiem czy podjęcia „smutnej” decyzji. Mógłby także podszyć się pod kogoś kogo znamy lub znaliśmy. Eksperci wprost mówią tutaj o możliwości symulowania przez AI społecznych interakcji. Może science-fiction, a może wcale nieodległa przyszłość?

No alt text provided for this image

No i oczywiście tutaj musimy mieć odpowiednie rozwiązania w zakresie zarządzania takimi ryzykami (o tym pisałem w ostatnim artykule). Eksperci Komisji chcieliby tutaj, abyśmy dysponowali także takimi rozwiązaniami, które pozwolą na „rozwiązanie” ewentualnych negatywnych konsekwencji takiego działania AI.

„Człowiekocentryzm” i nadzór

wytycznych dot. sztucznej inteligencji godnej zaufania opracowanych również przez ekspertów Komisji (UE) znajdziemy jedną z zasad stanowiących fundament trustworthy AI, czyli przewodnia rola człowieka (Elon Musk lubi to). W jej ramach musimy przykładowo zapewnić, że użytkownicy korzystający z AI będą podejmowali świadome decyzje i będą rozumieli, jak działa algorytm. Jest to w jakimś stopniu podsumowanie powyższych uwag.

Idąc jednak nieco dalej (i bardziej technicznie), rola człowieka rozciąg się nie tylko na odbiór (użycie) systemu AI, ale na nadzór nad jego działaniem i to nie tylko na etapie „operacyjnym”, ale także na etapie tworzenia algorytmu. Eksperci wyróżniają tutaj trzy fazy:

1.     Human-in-the-loop – możliwość interwencji człowieka na każdym etapie podejmowania decyzji przez AI;

2.     Human-on-the-loop – interwencja na etapie projektowania oraz monitoring działania;

3.     Human-in-command – możliwość w zasadzie nieograniczonego stosowania i dostosowywania AI (znowu „ukłon” w stronę Elona Muska).

No alt text provided for this image

Każde z tych rozwiązań ma swoje plusy i minusy, ale wybór powinien być uzależniony od poziomu zaawansowania algorytmu czy jego (potencjalnego) zastosowania. Powinniśmy odpowiedzieć sobie przede wszystkim na pytanie o to w którą kategorię „wpada” nasz system. W kolejnym kroku odpowiedzmy sobie czy osoby wydelegowane do nadzoru są kompetentne (wyszkolone), aby efektywnie ten nadzór sprawować (ciekawe wskazówki znajdziemy w projekcie stanowiska UKNF w sprawie robo-advisory i roli compliance).

Dalej mamy sprawdzenie czy mamy jakieś systemy wykrywania (i eliminowania) nieprawidłowości oraz czy mamy „czerwony przycisk” wyłączający AI. I wreszcie ostatnie – czy mamy procedury nadzorujące to w jaki sposób uczy się nasz algorytm i czy w przyszłości będziemy w stanie odtworzyć proces „myślowy”. W podobnym tonie „wypowiadają” się wytyczne w sprawie AI godnej zaufania wskazując, że wiarygodność i odtwarzalność jako jeden z fundamentów.

Chodzi przecież o to, aby możliwe było „(…) w doświadczeniu powtórzonym w tych samych warunkach, [określić czy system AI] zachowuje się w identyczny sposób”. Bez tego nigdy nie osiągniemy efektywności AI jakiej oczekujemy po tych technologiach.

I to tyle

To oczywiście bardzo ogólne wskazówki (pytania). W praktyce, na co wskazywaliśmy już w ostatnim artykule, przy bardziej zaawansowanych systemach warto rozważyć wprowadzenie polityki sztucznej inteligencji (czy uczenia maszynowego) i dokonać zmiany organizacyjnej zapewniającej jasne zasady odpowiedzialności i eskalacji. Pozwoli to na lepsze zarządzanie rozwiązaniami, które mogą przecież w niekorzystny dla nas sposób wpływać na nas i nasze decyzje.

W kolejnym „odcinku” przejrzystość.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *