Czego sztucznej inteligencji nie wolno, czyli kolejne starcie z projektem rozporządzenia w sprawie AI

ostatnim artykule poruszyliśmy zagadnienie nie do końca jasnych definicji zawartych w projektowanym rozporządzeniu w sprawie sztucznej inteligencji w Unii Europejskiej. Doszliśmy – mam przynajmniej taką nadzieję – że Komisję czeka jeszcze sporo pracy, bo wiele kwestii wymaga jeszcze dopracowania. Dzisiaj zajmiemy się kolejnym – dość kontrowersyjnym – tematem, a mianowicie listą zakazanych praktyk przy wykorzystywaniu systemów AI, a także powiązanych z tym karami za naruszenia. Przejdźmy do konkretów.

Lista na pozór nie jest długa, jeżeli jednak przyjrzymy się konkretnym praktykom, to okaże się, że deskryptywny charakter potencjalnych naruszeń znacznie się wydłuża. Co więc ma być zakazane w Unii?

Po pierwsze nie będzie można wykorzystywać (czy oferować) takich systemów AI, które – aż musiałem posłużyć się translatorem – wykorzystują przekaz podprogowy (a więc będący poza świadomością odbiorcy) w celu istotne zniekształcenia zachowania (jak rozumiem wpłynięcia na nią), aby spowodować u niej (lub innej osoby) krzywdę fizyczną lub psychiczną. Innymi słowy – manipulacja naszymi zachowaniami jest zakazana.

Drugim działaniem może być wykorzystywanie lub oferowanie takich systemów AI, które wykorzystują określone słabości (cechy?) określonych grup osób wyodrębnionych ze względu na wiek, fizyczną lub psychiczną niepełnosprawność, w celu istotnego wpłynięcia na te osoby, co może spowodować krzywdę fizyczną lub psychiczną. Ciężko.

Idźmy dalej. Trzecią praktyką niezgodną z projektem będzie stosowanie przez organy publiczne systemów AI działających na zasadzie scoringu społecznego (mówimy tutaj oczywiście o samym rezultacie) – tego na wzór chińskiego rozwiązania. Przy czym w projekcie mamy ograniczenie do dwóch sytuacji, kiedy ocena wiarygodności obywateli będzie zakazana:

  1. Jeżeli scoring jest stosowany w celu szkodliwego lub niekorzystnego traktowania osób fizycznych w obszarze społecznym, przy czym mowa tutaj o sytuacji kiedy zebrane lub wygenerowane dane zostały zebrane w innym celu – nie jest więc to zakaz absolutny, a przynajmniej ja tak to czytam i/lub
  2. Taki scoring jest wykorzystywany w celu szkodliwego lub niekorzystnego traktowania osób fizycznych w sposób nieadekwatny lub nieproporcjonalny do ich społecznych zachowań lub wagi tych zachowań.

Uff, ograniczenia są całkiem spore, ale samo wykorzystywanie systemów AI do stosowania scoringu obywateli nie zostało całkowicie zakazane. To w sumie dobrze, bo przykładowo w obszarze benefitów społecznych może to być ciekawe zastosowanie. Ale od razu uwaga – takie systemy wskazane są w załączniku do projektu jako systemy wysokiego ryzyka i podlegają szczególnym wymogom. 

Koniec? Nie. Biometria

No właśnie. Czwartą praktyką, która jest zarazem najbardziej rozbudowana jest zakaz stosowania identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej i w celu egzekwowania prawa, chyba że…

To „chyba że” jest też dość obszerne, bowiem takie rozwiązania mogą być stosowane, jeżeli takie są one niezbędne (strictly necessary) do realizacji jednego z poniższych celów:

  1. „targetowanie” potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
  2. Przeciwdziałanie istotnym i mogącym się wydarzyć w bardzo niedługim czasie zdarzeniom zagrażającym życiu lub fizycznemu bezpieczeństwu osób fizycznych, a także przeciwdziałanie atakom terrorystycznym;
  3. Wykrywanie, lokalizowanie, identyfikacja lub postawienie w stan oskarżenia sprawcy lub podejrzanego, ale tylko określonych typów przestępstw (i to pod warunkiem karalności w danej jurysdykcji).

Zakres więc jest dość wąski i pytanie jak ewentualnie miałoby to być realizowane, ale do tego też pewnie dojdziemy.

No alt text provided for this image

To co jest istotne, to fakt, że poza tym musimy (organy publiczne) dokonać oceny spełnienia pewnych (wszystkich) elementów określonych w rozporządzeniu:

  1. Rodzaj sytuacji, którym taki system miałby przeciwdziałać, w tym poprzez ocenę realnego prawdopodobieństwa zdarzenia przy braku takiego systemu;
  2. Konsekwencje użycia systemu dla praw i wolności wszystkich osób.

No i to też nie koniec. Komisja chciałby, aby dodatkowo takie systemy miały zapewnione odpowiednie zabezpieczenia czy „safeguards”. Rozumiem to również jako rozciągnięcie na kwestie ochrony danych osobowych czy cyberbezpieczeństwa. Dodatkowo projekt zakłada, że „ustawienie” takiego systemu AI będzie wymagało uzyskania stosownego zezwolenia wydawanego przez niezależny organ administracji lub sąd czy trybunał. Nie dotarłem do tego jak wyznaczyć taki organ/sąd, ale być może będziemy mieli doprecyzowanie – tym bardziej, że prawo krajowe ma określić zasady.

Dalej projekt zakłada, że w przypadku pewnych wyjątkowych sytuacji wymagających natychmiastowego działania, system może być zastosowany bez zgody/zezwolenia (trzeba je uzyskać później). Wiele z kwestii dotyczących takich rozwiązań będzie ogólnie „doprecyzowywana” w krajowym porządku prawnym.

Kary, sankcje

Trochę tego jest, więc w skrócie. Mamy zarówno kary finansowe i to do 30 mln euro (lub 6% światowego obrotu) za naruszenie zakazów z art. 5. Dodatkowo EDPS (European Data Protection Supervisor) może nałożyć na organy publiczne karę administracyjną do 500.000 euro za takie samo naruszenie. Jest więc „nieźle”.

Ocena?

Jeden rabin powie tak, drugi powie nie. A tak serio, to obawiam się przede wszystkim dwóch pierwszych zakazanych praktyk, a raczej ich „nieostrości”. Może okazać się, że podmioty stosujące innowacyjne rozwiązania będą obawiały się je szerzej wykorzystywać ze względu na potencjalne kary. Jeżeli dołożymy do tego problem czarnej skrzynki, to wszystko staje się jasne. Nie zawsze będziemy mieli pewność. Niestety.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *