Prawa człowieka a sztuczna inteligencja, czyli Unia Europejska stawia na prawa podstawowe

Parę dni temu Agencja Praw Podstawowych Unii Europejskiej (FRA) opublikowała bardzo ciekawy i dość obszerny raport – Getting the Future Right. Artificial Intelligence and Fundamental Rights, który stanowi bardzo dobre uzupełnienie do ostatnich rezolucji Parlamentu w sprawie AI (nieco więcej tutaj). Ze względu na rozmiar publikacji, jak i wielość zagadnień nie zajmiemy się dzisiaj wszystkim. Na raport warto spojrzeć także dla bardzo interesujących danych dotyczących „penetracji” AI w sektorze prywatnym i publicznym. Postaram się jednak przybliżyć najciekawsze elementy dokumentu.

Pierwszą część, na którą zwróciłem uwagę jest ta dotycząca praktycznych przykładów (use case) zastosowania AI w sferze publicznej i prywatnej. Autorzy raportu wskazali m.in. na pięć państw, w których znaleziono faktyczne zastosowanie dla sztucznej inteligencji. Zaliczyły się do nich m.in. Estonia czy Hiszpania.

Ciekawe są też dane dotyczące wykorzystania technologii „zależnych” od AI, do których oczywiście głównie zaliczyć można uczenie maszynowego czy głębokie uczenie. Ankiet z początku 2020 r. (teraz może być to znacznie większy procent) wskazuje, że aż 42% przedsiębiorstw wykorzystywała tą technologię. Kolejne 18% planuje taki ruch w przyszłości. Polska plasuje się w tym „rankingu” całkiem nieźle, chociaż dane są zastanawiające i myślę, że zakładają bardzo szeroką definicję AI. A może się mylę?=

No alt text provided for this image

Sam raport skupia się na czterech obszarach, które zostały uznane za najbardziej „podatne” na wykorzystanie automatyzacji. Są to obszary benefitów socjalnych, polityka prewencji, usługi zdrowia oraz reklama ukierunkowana. Dwa pierwsze obszary zostały uznane za najczęściej wykorzystywane w sferze publiczne, a dwa pozostałe w prywatnym. Autorzy raportu kwalifikują je również jako „sensytywne” w kontekście ochrony praw podstawowych. Całkiem słusznie. Szczególnie może to mieć miejsce w przypadku algorytmów uczenia maszynowego, a rzadziej algorytmów opartych o konkretne reguły – wtedy jednak w mniejszym stopniu mówimy o AI.

Bardzo ciekawy jest przykład użycia AI w obszarze prewencji (kryminalnej), np. z wykorzystaniem biometrii. Poza tym, że pojawiają się tutaj obawy o dokładność algorytmów „przewidywania przyszłości”, pewnym problemem jest brak wystarczających danych, co w efekcie może prowadzić do dyskryminacji lub niewłaściwej predykcji. Ważne jest także, to że automatyzacja w tym obszarze może „zaburzać” właściwy (ludzki) osąd czy nawet prowadzić do pewnego rodzaju „lenistwa”. To jest zresztą jeden z wątków wskazywanych przez Komisję przy okazji wytycznych w sprawie Trustworthy AI. 

Podstawy podstaw

No alt text provided for this image

No dobrze, ale jak to się przekłada na prawa podstawowe? Okazuje się, że „framework” dla AI może być dość szeroki, choć źródeł nie szukamy wcale w sztucznej inteligencji. Chodzi oczywiście o to, że w UE mamy bardzo rozbudowany katalog praw podstawowych, które znajdziemy nie tylko w Karcie Praw Podstawowych czy dyrektywach antydyskryminacyjnych, ale także – głównie – w Rozporządzeniu 2016/679 (RODO). Nadal nie ma rozwiązań legislacyjnych, które byłyby specyficzne dla AI w kontekście ochrony praw podstawowych, chociaż jeden przykład jest bardzo ciekawy i można rzecz – wzorcowy.

W Finlandii zostały wydane rekomendacje dotyczące samoregulacji w zakresie odpowiedzialności za sztuczną inteligencję i nie jest to może najbardziej zaskakujące, natomiast w państwie tym planowane jest wprowadzenie zmian w konstytucji, które mają zapewnić większość pewność w zakresie ochrony praw podstawowych w kontekście AI, w tym w kontekście tzw. accountability czy transparentności algorytmów. Pewne specyficzne zmiany mają się pojawić także w odniesieniu do tego zagadnienia w sektorze publicznym.

Ryzyka?

Tych jest całkiem sporo. To jest temat, który przewija się dość często w kontekście AI i dotyczy m.in. kwestii dyskryminacji, której może się „dopuścić” algorytm, ale także kwestii ochrony danych osobowych czy „narzędzi” dochodzenia roszczeń (tutaj oczywiście mówimy o odpowiedzialności za algorytm). Jeżeli dołożymy do tego kolejne fundamentalne zasady jak prawo do sprawiedliwego procesu czy „dobrej administracji publicznej” (mówimy przecież o szerokim zastosowaniu AI), to okaże się, że wyzwań jest sporo.

No alt text provided for this image

To na co jednak zwracają uwagę autorzy raportu, to to, że nie zawsze wskazując na ryzyka związane ze sztuczną inteligencją, jako pierwsze przychodzą nam myśl prawa podstawowe, a te przecież są praktycznie wszędzie. Ciekawym przykładem jest np. prawo do rzetelnej informacji, co ma zastosowanie np. w odniesieniu do sprzedaży detalicznej, ale może też się pojawić w przypadku reklam „targetowanych”.

W praktyce jednak możemy wskazać, że najbardziej „narażone” niewłaściwym użyciem AI są te prawa, które dotyczą najbardziej „intymnej” sfery człowieka, w tym godność osobista, prawo do informacji czy ochrony jego danych. Nie można jednak zapominać o innych obszarach jak chociażby sfera dyskryminacji, ochrony konsumenta czy ochrona praw własności intelektualnej.

Przełożenie na konkrety

W raporcie znajdziemy konkretne rekomendacje co do podejścia do oceny potencjalnych naruszeń praw podstawowych. Mamy oczywiście przedstawiony cały katalog miękkich rekomendacji, które wielokrotnie omawialiśmy na blogu, ale także trzy podstawowe „pytania”, na które powinniśmy sobie odpowiedzieć od początku tworzenia określonych rozwiązań, czyli:

1.    Czy dane osobowe są w należy sposób chronione?

2.    Czy nasze rozwiązanie nie prowadzi do dyskryminacji i czy chronione są prawa grup szczególnie narażonych (chronionych)?

3.    Czy osoby „dotknięte” AI mają zapewnione odpowiednie prawa np. w zakresie zgłaszania naruszeń i uzyskania stosownego odszkodowania?

Autorzy nie zapominają również o specyficznych obszarach wykorzystania AI, więc mamy też konieczność uwzględnienia innych praw jak praw do ekspresji czy możliwości do skorzystania z publicznej ochrony zdrowia.

Konkluzje?

Wydają się oczywiste. Nawet w przypadkach „nieoczywistych” – w tym komercyjnych – musimy dbać o poszanowanie praw podstawowych. Wielokrotnie przywoływana przeze mnie na blogu self-assessment dla rozwiązań opartych o sztuczną inteligencję może stanowić punkt wyjścia. Do tego musimy oczywiście dołożyć obowiązkowe audyty i rozwiązania organizacyjno-techniczne zapewniające bieżące monitorowanie i reagowanie na incydenty. Wraz z rozwojem AI będzie tego jednak coraz więcej. Nie zdziwię się jak niedługo – szczególnie wobec planów UE w zakresie certyfikacji AI – pojawią się nowe profesje w tym zakresie.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *