poniedziałek, Czerwiec 1

Będzie unijna regulacja dot. odpowiedzialności AI? Jest konkretna propozycja

Google+ Pinterest LinkedIn Tumblr +

Jakiś czas temu zastanawiałem się nad tym jak Komisja (UE) podejdzie do kwestii uregulowania odpowiedzialności (za) AI (klik). Z dokumentu „Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics” mogliśmy dowiedzieć się, że pewne zmiany nas czekają, ale na prawdziwą legislacyjną rewolucję nie ma co liczyć. W ostatnich dniach komitet ds. prawnyc Komisji (UE) opublikowały właśnie bardzo ważny dokument „Draft Report with recommendations to the Commission on a Civil liability regime for artificial intelligence”. Rekomendacje tam zawarte mają istotne znaczenie zarówno dla twórców AI, jak i podmiotów (osób), które z niej korzystają. Jakie najważniejsze wnioski płyną z raportu? Przekonajmy się. 

Na wstępie eksperci Komisji zauważają, że AI może przyczynić się do poprawy warunków życia w wielu obszarach, w tym sferze osobistej (zdrowie, kondycja, edukacja) czy też wspomóc w walce z wieloma niekorzystnymi zjawiskami, jak zmiana klimatu czy głód na świecie. Z tego względu tak istotne jest tworzenie takich rozwiązań prawnych i regulacyjnych, które będą dostosowane do nowych technologii, a także powinny być oparte na jasnych zasadach.

I od razu ważna informacja – dokument zawiera konkretną propozycję legislacyjną. To duży krok naprzód.

Nie czeka nas rewolucja?

Komitet stoi na stanowisku, że nie ma potrzeby przeprowadzania kompleksowej rewizji rozwiązań prawnych odnośnie odpowiedzialności AI, choć specyfika sztucznej inteligencji wymaga z pewnością pewnych dostosowań i wyjaśnień, aby zapewnić, że w każdym przypadku jesteśmy w stanie wskazać osobę odpowiedzialną za jej działanie.

I tutaj od razu bardzo ciekawe stwierdzenie mające znaczenie dla oceny autonomiczności AI. Pozwolę sobie zachować oryginalną pisownię:

„(…) all physical or virtual activities, devices or processes that are driven by AI systems may technically be the direct or indirect cause of harm or damage, yet are always the result of someone building, deploying or interfering with the systems (…)”

Oznacza to, że za AI zawsze stoi człowiek. Idąc dalej eksperci Komisji wskazują jednak, że niekiedy może być trudno powiązać określone działanie AI (wyrządzoną szkodę) z określonym (uprzednim) działaniem człowieka (np. na etapie projektowania algorytmu). Nie ma więc mowy o tym, że AI jest w pełni autonomiczne, choć oczywiście pewien zakres swobody posiada (w propozycji znalazła się definicja autonomiczności). To ważne stwierdzenie.

Mamy więc reżim dla produktu niebezpiecznego 

No alt text provided for this image

Przepisy regulujące kwestię odpowiedzialności za produkt niebezpieczny są oceniane pozytywnie. Rozwiązania te mogą być więc stosowane również do AI pod warunkiem, że takie rozwiązanie „podpada” pod definicję produktu niebezpiecznego. Ja niestety mam wątpliwości czy obecna definicja produktu niebezpiecznego jest w pełni „satysfakcjonująca” w kontekście AI, ale to dyskusja na inną okazję.

I tutaj kolejna ważna uwaga tzw. backend operator powinien również odpowiadać jak producent, wytwórca czy deweloper oprogramowania.

Cieszy to, że eksperci Komisji (UE) wskazali, że również w przypadku udziału osoby trzeciej, np. hakera, zastosowanie mają „klasyczne” zasady odszkodowawcze, chyba że… 

… wykrycie takiej osoby trzeciej będzie niemożliwe lub nieproporcjonalnie kosztowne.

W takiej sytuacji z pewnością będą potrzebne dodatkowe wyjaśnienia lub nawet zmiany legislacyjne.

Odpowiedzialność osoby wdrażającej AI

No alt text provided for this image

To centralny punkt opinii. Zdaniem ekspertów Komisji, ponieważ osoba wdrażająca określone rozwiązanie ma „pieczę” nad AI, tj. zarządza ryzykiem powiązanym z działaniem sztucznej inteligencji, to będzie on traktowany zazwyczaj jak właściciel samochodu czy zwierzaka (pisałem już kiedyś o tej koncepcji przy okazji innego raportu Komisji – klik). Będzie to też zazwyczaj pierwsza osoba do której swoje kroki skieruje pokrzywdzona osoba.

A kim jest wdrażający (deployer)? Będzie to osoba, która:

1.     Podejmuje decyzję o wykorzystaniu AI;

2.     Kontroluje ryzyko związane z AI oraz

3.     Czerpie korzyści z AI.

Jaka jest tego konsekwencja? Ogólnie odpowiedzialność za wszelkie działania AI, niezależnie od tego gdzie (fizycznie, wirtualnie) i kiedy miała miejsce szkoda. Jeżeli mamy więcej wdrażających, to mamy oczywiście odpowiedzialność solidarną z prawem regresu.

Różne poziomy ryzyka, różny poziom odpowiedzialności

Rodzaj zastosowanego systemu sztucznej inteligencji może mieć znaczenie dla zakresu odpowiedzialności.Chodzi tutaj przede wszystkim o wyższy poziom tej odpowiedzialności w przypadku rozwiązań generujących potencjalnie wysokie ryzyko dla społeczeństwa (czy w węższym ujęciu – general public). Szkoda miałaby dotyczyć zdrowia, życia, integralności cielesnej czy prawa własności. 

No alt text provided for this image

Eksperci Komisji stwierdzili tutaj, że dla takich rozwiązań należy przewidzieć oddzielny reżim odpowiedzialności, który powinien uwzględniać różne rodzaje ryzyk, zależności czy trudności w „uprzedniej” ocenie tych ryzyk (jeżeli AI się uczy, to może wygenerować ryzyka, których nie przewidzieliśmy).

To co ma istotne znaczenie, to padła propozycja wymienienia wszystkich high-risk AI-systems w załączniku do proponowanego aktu prawnego z zastrzeżeniem, że Komisja powinna być uprawniona do dokonywania przeglądu co najmniej raz na 6 miesięcy i wprowadzania stosownych zmian. Bardzo sensowna rekomendacja.

Lista jest na razie dość krótka i obejmuje takie rozwiązania jak:

1.     Drony;

2.     Określone typy samochodów autonomicznych;

3.     Autonomiczne systemy utrzymania ruchu;

4.     Autonomiczne roboty;

5.     Autonomiczne roboty sprzątające w przestrzeni publicznej.

Ubezpieczenie? 

Jeżeli będziemy wdrażali tego typu technologie (high-risk) to powinniśmy posiadać stosowne ubezpieczenie od szkód, które AI może wyrządzić. Ubezpieczyciele powinni dostosować swoją ofertę do nowych technologii i poszczególnych sektorów.

Jak to oceniać? 

Jestem jeszcze w trakcie analizy i „trawienia” nowej propozycji. Wydaje się jednak, że podział na AI o wysokim ryzyku i „zwykłe” to bardzo dobre podejście. Z jednej strony nie będzie blokowało rozwoju innowacji, a z drugiej zapewni dodatkowe zasady ochrony przy tych rozwiązaniach, które mogą faktycznie wyrządzić dużą szkodę. Zobaczymy. Do tematu na pewno jeszcze wrócę.

Udostępnij.

Zostaw komentarz