środa, Maj 27

Czy „Biała Księga” Komisji (UE) w sprawie sztucznej inteligencji pomoże sektorowi finansowemu? Pierwsze wrażenia po lekturze „White Paper On Artificial Intelligence – A European approach to excellence and trust”

Google+ Pinterest LinkedIn Tumblr +

Niedawno Komisja (UE) opublikowała ważny dokument White Paper On Artificial Intelligence – A European approach to excellence and trust, który choć nie jest konkretną propozycją legislacyjną, to jednak pokazuje w którym kierunku mogą pójść prace nad sztuczną inteligencją w Unii Europejskiej i państwach członkowskich. Sam dokument warto czytać ze Strategią UE w sprawie danych, której pisałem tutaj oraz raportem w sprawie odpowiedzialności (klik). Z dokumentu możemy wyczytać jakie plany ma Komisja w kontekście rozwoju sztucznej inteligencji (AI), w tym w zakresie stworzenia odpowiedniego ekosystemu, a także jakie wyzwania nas czekają w kontekście – potencjalnego – szybkiego rozwoju technologii. Przejdźmy przez najważniejsze aspekty Białej Księgi. Zaczynamy pierwszą część omówienia oraz do zgłaszania swoich uwag do dokumentu (informacje poniżej).

Autorzy są zdania, że AI rozwija się bardzo dynamicznie (chyba nie czeka nas w najbliższym czasie kolejna „zima”), co z jednej strony może wpłynąć na otaczający nas świat bardzo pozytywnie, a z drugiej strony może stanowić duże zagrożenie. Eksperci są zdania, że największymi wyzwaniami (ryzykami) w tym obszarze są lub będą kwestie związane z „nieprzejrzystym” procesem decyzyjnym (istotne np. w kontekście zautomatyzowanej oceny zdolności kredytowej – klik), dyskryminacją, naruszeniem zasad w zakresie prywatności czy wykorzystaniem AI do dokonywania przestępstw.

Trudno się z tym nie zgodzić, choć to tylko potwierdza, że raporty i opinie mogą nie wystarczyć, a potrzeba działań legislacyjnych to nie perspektywa najbliższych pięciu lat, ale „tu i teraz”.

Ponieważ nie jest to finalna wersja dokumentu, Komisja zachęca do przekazywania swoich komentarzy do 19 maja 2020 r. (klik), do czego zachęcam.

W jedności siła

Na pierwszych strona Białej Księgi znajdujemy bardzo optymistyczną deklarację (wniosek) dotyczący podejścia do AI. Jeżeli Europa ma być jednym z liderów wykorzystania tej technologii (również w kontekście sustainable finance – więcej tutaj) to konieczne jest opracowanie jednego podejścia dla całej UE, aby uniknąć różnic w podejściu do AI (głównie w aspekcie prawnym), co mogłoby osłabić zaufanie społeczeństwa do sztucznej inteligencji. Podejście jak najbardziej słuszne (w teorii), ale w praktyce pewnie trudne do wykonania.

Budowanie tego jednolitego podejścia ma opierać się zasadniczo na dwóch filarach:

  1. Stworzenie ekosystemu doskonałości (ecosystem of excellence) w ramach którego podejmowane będą różne inicjatywy, w tym w zakresie R&D oraz finansowania, w tym wspierającego segment SME tworzący i wykorzystujący AI;
  2. Stworzenie ekosystemu zaufania (ecosystem of trust), czyli podjęcie szeregu inicjatyw prawno-regulacyjnych, które zapewnią, że rozwiązania z zakresu AI będą „szanowały” (a może już bez cudzysłowu?) podstawowe prawa człowieka i konsumenta. Tutaj od razu warto zaznaczyć, że Komisja zamierza kontynuować wspieranie tzw. Human-centric AI. Na tym drugim aspekcie skupię się w artykule.

Czego potrzeba, żeby AI było skuteczne?

Oczywiście danych. Podejście Komisji pokrywa się zasadniczo z raportem EBA w sprawie wykorzystania Big Data. W raporcie znajdujemy stwierdzenie, że choć jesteśmy jeszcze w „ogonie”, a przynajmniej nie na czele, jeżeli chodzi o dostęp do danych, to może się to zmienić m.in. w związku z inicjatywami Komisji. Duży nacisk Unia Europejska zamierza kłaść na uniezależnienie się od dostawców rozwiązań, którzy nie mają korzeni na Starym Kontynencie.

Ramy regulacyjne dla AI

Nie będę się rozpisywał o tym co zostało do tej pory wypracowane (zachęcam do prześledzenia strony 9 i następnych dokumentu). Takie ramy mają powstać, choć nie wiadomo jeszcze, kiedy. Komisja ma jednak świadomość, że jasne określenie zasad odpowiedzialności oraz rozliczalności (accountability) to warunek dla dalszego rozwoju (AI), bo bez tego trudno o zaufanie odbiorców końcowych. Prawda.

Autorzy dokumentu zwracają jednak, że nie jest to zadanie łatwe (to też prawda). Największym wyzwaniem wydaje się takie ułożenie zasad (w tym w kontekście praw podstawowych), aby zapewnić możliwie najwyższy poziom bezpieczeństwa (de facto nam – ludziom).

Tutaj mamy bardzo ciekawy problem, który w zasadzie nie przyszedł mi wcześniej do głowy. W jednym z artykułów o pseudonimizacji pisałem o tej technice jako dość dobrej metodzie szyfrowania danych. Eksperci Komisji zwrócili uwagę jednak na fakt, że nawet dobrze zaszyfrowane dane mogą być – stosunkowo łatwo i szybko – odszyfrowane przez algorytmy i tym samym z danych nieosobowych mamy dane osobowe, które są w sposób szczególny chronione. Ryzyko tym większe, im więcej danych o nas samych udostępniamy np. w sieci. Pierwsze wyzwanie w zakresie ochrony danych osobowych mamy więc na talerzu.

Dyskryminacja

To kolejny, wcale nie teoretyczny wątek. Autorzy dokumentu zwracają uwagę, że podejmowanie decyzji przez człowieka nie jest oderwane od ryzyk związanych z dyskryminacją, jednakże AI również jest narażone na tego typu błędy decyzyjne. W szczególności może to generować duże ryzyko na etapie uczenia się algorytmu. Błędne założenia i skutki w postaci błędnych (niesprawiedliwych) decyzji mogą „ciągnąć” się w nieskończoność. Z tego względu istotne jest takie zbudowanie ram prawnych, które umożliwiają efektywną kontrolę algorytmu (procesu decyzyjnego). Co jednak w przypadku black-boxów? To nie jest teoretyczne rozważanie, a realny problem, który może wystąpić również w przypadku wspomnianej już oceny zdolności kredytowej.

Na marginesie warto wspomnieć, bo nie jest to wiedza powszechna, że w Unii Europejskiej mamy szereg dyrektyw, które odnoszą się do zakazu dyskryminacji na wielu polach, np. ze względu na pochodzenie.

Odpowiedzialność

Na temat planów w zakresie odpowiedzialności AI pisałem już chociażby tutaj, więc nie zamierzam powielać tego tematu. Wnioski z obu dokumentów są zasadniczo zbieżne.

Co zamierza zrobić Komisja?

Planów jest wiele, przy czym mamy dość jasne stwierdzenie, że „[…] EU legislation [m.in. w zakresie produktów niebezpiecznych] remains in principle fully applicable irrespective of the involvement of AI, it is important to assess whether it can be enforced adequately to address the risks that AI systems create, or whether adjustments are needed to specific legal instruments”.

Komisja zakłada m.in.:

  1. Doprecyzowanie istniejących aktów prawnych (tych obowiązujących I tych które dopiero wejdą w życie), aby nie budziło wątpliwości ich zastosowanie do sztucznej inteligencji;
  2. Doprecyzowanie zakresu prawodawstwa w zakresie produktów niebezpiecznych (czy oprogramowanie oparte na AI „wchodzi” w definicję produktu?);
  3. doprecyzowanie wybranych aspektów odpowiedzialności, np. w przypadku aktualizacji oprogramowania i jej wpływu na funkcjonowanie produktu czy oprogramowania;
  4. Doprecyzowanie zasad odpowiedzialności w „łańcuchu” operatorów AI;
  5. Doprecyzowanie prawodawstwa w zakresie bezpieczeństwa (w tym CybSec) w kontekście AI.

I teraz zaskoczenie. Wcale nie oznacza to, że konkretne działania legislacyjne zostaną podjęte w najbliższym czasie. Przy podejmowaniu decyzji odnośnie potrzeby uregulowania określonych kwestii Komisja będzie stosować tzw. Risk-based approach. Oznacza to, że w pierwszej kolejności działania zostaną ukierunkowane na te obszary, które wiążą się z wysokim ryzykiem (choć AI jako całość tak została zakwalifikowana). Tutaj kluczowe będą ryzyka dla konsumentów, ale również dla SME. Bazując na raporcie można jednak śmiało założyć, że sektor finansowy również zostanie objęty „opieką” Komisji jako highly-sensitive.

Czy to wszystko?

Jest jeszcze kilka ciekawych wątków, które będę chciał poruszyć w kolejnej odsłonie, która dotyczy będzie także raportu Commission Report on safety and liability implications of AI, the Internet of Things and Robotics, który towarzyszy Białej Księdze.

Udostępnij.

Zostaw komentarz