Sztuczna inteligencja dla dobra człowieka i środowiska, czyli lista (samooceny) AI
„Sztuczna inteligencja stanie się wkrótce tym, czym jest elektryczność – będzie wszechobecna i konieczna do życia”. To cytat z książki Kai-Fu Lee „Inteligencja sztuczna. Rewolucja prawdziwa. Chiny, USA i przyszłość świata”, który pokazuje jak zmienia się nasze podejście do AI. Tak rewolucyjna zmiana z pewnością nie nastąpi w perspektywie 2-3 lat, ale 5-10 to już chyba realna perspektywa. Kontynuując wątek listy do samooceny sztucznej inteligencji opracowanej przez ekspertów Komisji (UE) przejdziemy dzisiaj do ważnego zagadnienia wpływu AI na społeczny i środowiskowy dobrostan (well-being), który ma być przecież głównym celem tworzenia innowacyjnych rozwiązań.
Wybór powyższego cytatu nie jest przypadkowy. Jeżeli przyjrzymy się wytycznym w sprawie Trustworthy AIto dojdziemy do wniosku, że sztuczna inteligencja ma przyczyniać się do poprawy naszego statusu (szerokie rozumienie) przy jednoczesnym poszanowaniu i uwzględnieniu pozytywnego wpływu na środowisko. Innymi słowy, wszystkie te rozwiązania, które są oparte o AI czy machine learning powinny być tak konstruowane, aby te aspekty uwzględniać.
Nieco enigmatyczne prawda? Eksperci Komisji (UE) wskazują tutaj, że o ile AI może przynieść wiele dobrego, to niesie ze sobą także liczne zagrożenia, jak nadmierne zaufanie względem algorytmów, pogorszenie stosunków społecznych wynikające z automatyzacji czy nawet negatywne skutki dla naszej psychiki. A to są już zagrożenia, których nie możemy pominąć. No i jest jeszcze ekologia, o czym za chwilę.
Wiele aspektów
Ten punkt z listy ekspertów Komisji (UE) jest nieco filozoficzny i chyba trudno-mierzalny. Autorzy zwracają uwagę na fakt, że AI powinno uwzględniać takie aspekty jak wspieranie demokratycznych procesów, pluralizm czy wyznawane wartości. Jest to na tyle szeroka kategoria, że można do niej „wrzucić” praktycznie wszystko.
Nie są to jednak wcale nierealne sytuacje, gdzie AI może sporo (negatywnie) namieszać. Jeżeli podejmowanie decyzji politycznych czy gospodarczych, a także społecznych przez organy państwowe opiera się w jakimś stopniu (lub całkowicie) na danych opracowanych i „wyplutych” przez algorytm, to zawsze istnieje ryzyko, że gdzieś „po drodze” pojawiła się manipulacja (fake newsy, różne komunikaty w zależności od grupy docelowej), dyskryminacja czy po prostu błąd ludzki (programisty).
Dlatego musimy zawsze zadawać sobie pytanie czy nasz system AI może mieć negatywny wpływ na demokrację (procesy demokratyczne). Oczywiście trudno mówić o tym w sytuacji, gdy stosujemy rozwiązania np. do oceny zdolności kredytowej, aczkolwiek i w takim przypadku teoretycznie może się to zdarzyć. Ale w powyższej sytuacji możemy już z kolei rozpatrywać ewentualny negatywny wpływ na społeczeństwo czy konkretną grupę np. ze względu na dyskryminację, o której już wielokrotnie pisałem.
Pytanie jakie mi się tutaj nasuwa to sposób w jaki można tym zarządzać. Po pierwsze dobre “data governance”, czyli rozsądne i efektywne zarządzanie danymi wejściowymi i wyjściowymi (o tym powiemy sobie w kolejnym artykule), przemyślane opracowywanie czynników „decyzyjnych” branych pod rozwagę i dobra kontrola na etapie uczenia się algorytmu oraz monitoring na etapie użytkowania. Eksperci rekomendują tutaj wprowadzenie odpowiednich rozwiązań, choć niestety nie wskazują jakich
Wpływ na pracę i umiejętności
Szalenie istotny wątek. Chyba wszyscy zastanawiamy się jak sztuczna inteligencja wpłynie na nas i naszą przydatność zawodową. Choć wiemy już, że Trustworthy AI ma być dla nas, a nie my dla niej, to jednak nie można wykluczyć, że w dobie automatyzacji niektóre zawody staną się mniej potrzebne lub w ogóle znikną.
To co powinniśmy wziąć pod uwagę, również jako wdrażający system AI w ramach naszej organizacji, to jak to wpłynie na naszych (współ)pracowników, np. zmniejszając ich zaangażowanie w określone projekty czy zmieniając role. To także bardzo ważna kwestia szkolenia i przygotowania pracowników do „przyjęcia” AI. Może to oznaczać także konieczność rozmowy z organizacjami związkowymi etc. na temat tego jak automatyzacja może przyczynić się do dystrybucji zadań w organizacji. To z pewnością nie zawsze będzie łatwa i prosta rozmowa.
Ważne będzie też wprowadzenie takich środków, które umożliwią pracownikom pozyskanie wiedzy i umiejętności koniecznych do obsługi tych systemów. Z jednej strony AI może przyczynić się do zwiększania kompetencji cyfrowych, a z drugiej może obudzić w nas „leniucha” i spowodować tzw. de-skilling, a na to również powinniśmy być przygotowani.
Środowisko „na topie”
Temat ochrony środowiska stał się ostatnio bardzo ważny (i niestety „modny” w negatywnym znaczeniu). Pojawia się on również w kontekście systemów wykorzystujących sztuczną inteligencję (warto zwrócić uwagę na Strategię Zrównoważonego Rozwoju Komisji). A o co chodzi?
Chodzi o to, że niezależnie od tego jak AI wspierać może środowisko, systemy muszą pracować w oparciu o rozwiązania najbardziej „environmentally friendly”. Już na etapie tworzenia rozwiązań powinniśmy brać pod uwagę, ile energii na to będziemy potrzebować (infrastruktura on-site versus chmura) i czy da się zmniejszyć ślad węglowy. Eksperci rekomendują przeprowadzenie analizy potencjalnego negatywnego wpływu na środowisko i opracowanie mechanizmu jego zapobiegania. Może być ciężko, bo eksperci wskazują nawet ocenę na etapie uczenia się algorytmu…
I na dzisiaj to wszystko. W kolejnej edycji, prawdopodobnie, długo wyczekiwane privacy i data governance.