Od człowieka, dla człowieka. Prawa podstawowe a sztuczna inteligencja, czyli dlaczego powinniśmy o nie walczyć?
Trochę zajęło mi zrozumienie w pełni, dlaczego Unia Europejska przykłada w swoim projekcie rozporządzenia w sprawie sztucznej inteligencji, o którym pisałem m.in. tutaj. Projekt poza tym, że zawiera sporo odesłań do wartości (bliskich Unii) czy ochrony praw podstawowych, jest też w wielu miejscach niezwykle – na pozór – restrykcyjny, chociażby w odniesieniu do systemów wysokiego ryzyka (więcej tutaj), ale także praktyk zakazanych (klik). Z czysto biznesowego punktu widzenia można więc dojść do przekonania, że projekt zahamuje innowacje, co zresztą – także i w moich felietonach – pojawia się dość często. I rzeczywiście tak może być. Pytanie czy to źle?
No właśnie. Kluczowe jest przede wszystkim zrozumienie czym jest sztuczna inteligencja (rozważaniom na ten temat poświęciłem kilka artykułów), czyli po prostu bardziej lub mniej rozbudowanym algorytmem opartym o określone zależności, dane i metody ich analizy, który jest tworzony przez CZŁOWIEKA. Parlament Europejski, jak i w sumie Komisja (UE) odmawiają AI przyznawania osobowości prawnej twierdząc – słusznie – że jednak za algorytmem stoi zawsze człowiek. Nawet najbardziej rozbudowane algorytmy, w tym te uczące się, w dalszym ciągu są naszym wytworem na co zresztą wskazuje sama nazwa sztucznej inteligencji.
W istocie. Człowiek decyduje o tym w jaki sposób ma działać algorytm, jaki cel mu przyświeca oraz na jakich danych będzie bazował przy podejmowaniu decyzji – na to wskazuje chociażby „modelowa cecha” sztucznej inteligencji godnej zaufania (od człowieka, dla człowieka). Autonomiczne czy bardziej częściowo autonomiczne algorytmy nadal są zależne od twórcy lub użytkownika. W każdym momencie możemy je wyłączyć, przekierować czy poprawić, aby działały ZGODNIE Z NASZYMI OCZEKIWANIAMI. Czasem zajmie to nam więcej czasu lub nie będziemy wiedzieli, jak to zrobić (co może prowadzić do poważnych komplikacji), ale to będzie wyłącznie nasz autonomia i sfera decyzyjna, a nie maszyny. Zawsze.
W jednym z dokumentów Parlamentu Europejskiego pojawiła się propozycja, żeby definiować AI jako jakieś rozwiązanie technologiczne, które przejawia „zachowania” symulujące inteligencję, m.in. poprzez zbieranie i przetwarzanie danych, analizę oraz interpretację otoczenia i podejmowanie decyzji z pewną dozą autonomii, a wszystko to, aby osiągnąć określony cel. Ten cel zawsze będzie jasno określony na etapie tworzenia algorytmu – i o ile wiem nie ma na tą chwilę przewidywań, że w najbliższym czasie AI stanie się autonomiczne, choć tego wykluczyć nie można. To czym są algorytmy świetnie zobrazował J. J. Bryson:
„‘(…) actual algorithms are abstractions, that only means algorithms in themselves are not AI. (…) an algorithm is just a list of instructions to be followed, like a recipe baking’[1]”.
Wcale nie powoduje to, że powinniśmy przestać rozmawiać o ewentualnym rozwoju AI, bo nigdy nie wiemy co nas czeka. Pewnie o wielu innowacji też nie wiemy. Chodzi bardziej o to, że algorytm – sztuczna inteligencja – jest tworem sztucznym zależnym od człowieka i będącym jego wytworem. I dlatego tak dużo mówimy o prawach podstawowych i wartościach w kontekście sztucznej inteligencji.
No właśnie, dlaczego tak jest? W jednym z ostatnich artykułów pisałem o roli etyki w obszarze nowych technologii (klik). Zarówno wspomniana etyka, jak i twarde (oraz miękkie) prawo są nam potrzebne, aby chronić nas samych – ludzi. Skoro człowiek odpowiada za tworzenie algorytmu i następnie wykorzystuje go do „niecnych” celów, to musi ponieść odpowiedzialność. Dlatego nie rozmawiamy – na razie – o osobowości prawnej algorytmów, bo po pierwsze rodzi to istotne wyzwania w sferze stosunków prywatnoprawnych, ale i publicznoprawnych, a po drugie nie zawsze sama zapłata (odszkodowania) spełni swoją funkcję. Poza tym czy „nauczy” ona algorytm niepodejmowania podobnych działań w przyszłości?
Nowe technologie są narzędziami, które pozwalają na więcej i szybciej, w tym – niestety w obszarze nadużyć (nie tylko świadomych). Często w mediach pojawiają się informacje o tym, że algorytm jest stronniczy lub podejmuje dyskryminujące decyzje. Czy to, aby na pewno algorytm? A może niewłaściwie zaprogramowany „robot”? A może to dane są temu „winne”? A jeżeli tak, to kto za nie odpowiada? Może my wszyscy? Prawda jest taka, że to człowiek gdzieś popełnił błąd – bądź to z nieuwagi czy nieświadomości, bądź też celowo. Musi ponieść więc odpowiedzialność – tak jak w przypadku produktów niebezpiecznych, których działania czy skutków nie jesteśmy w 100% w stanie przewidzieć. Przepisy mają dać nam możliwość dochodzenia roszczeń (cywilnych) czy odpowiedzialności (karnej i/lub administracyjnej) od tego kto zawinił.
I dlatego też postulaty czy twarde wymogi w zakresie pewnych kategorii systemów AI kierowane są nie do sztucznej inteligencji, ale człowieka. To on ma wprowadzić rozwiązania zapewniające mu kontrolę nad algorytmami. To nie AI jest godna zaufania, to człowiek za nią stojący ma być „trustworthy”.
W sferze prywatnoprawnej jest – zapewne – łatwiej, ale co w przypadku, gdy zaawansowane narzędzia stosowane są przez sektor publiczny? Czy zapewniona jest wtedy równowaga stron? Na to pytanie „próbuje odpowiedzieć” propozycja Komisji. Środki ochrony – również w formie odgórnych zakazów – muszą się pojawić, aby uniknąć nie tylko nadużycia, ale też niepewności prawnej. Czy chcielibyśmy obudzić się któregoś dnia i dowiedzieć się z mediów, że w naszym mieście zainstalowano monitoring wizyjny analizujący nasze zachowania i „wyciągający” konsekwencje? Pewnie niewielu z nas – nawet zwolennikom zapewnienia bezpieczeństwa – by się to podobało. To oczywiście skrajny i przejaskrawiony przypadek, ale wcale nie niemożliwy 😉
Tutaj też dochodzimy do sedna. Wprowadzanie ograniczeń bazujących na prawach podstawowych ma sens i tego nie ma co kwestionować. Pytanie jest raczej o to, gdzie są granice i jak tworzyć przepisy i regulacje, aby nie nastąpiło „przegięcie” w któraś stronę. Znalezienie balansu nie będzie z pewnością proste. Nakładanie nowych obowiązków zawsze musi następować „z wyczuciem” i poszanowaniem fundamentalnych zasad, w tym zasady proporcjonalności. Obstawiam, że przez najbliższe lata będziemy raczej eksperymentować i choć części z nas się to nie spodoba, to postęp technologiczny nie jest 0/1, a reagować trzeba.
Artykuł stanowi moją prywatną opinię i nie może być utożsamiany ze stanowiskiem jakiejkolwiek instytucji z którą jestem lub byłem związany.
[1] J. J. Byrson, The Artificial Intelligence of the Ethics of the Artificial Intelligence: An Introductory Overview for Law and Regulation [in:] D. Dubber, F. Pasquale (ed.), The Oxford Handbook…, ibidem, p. 6