wtorek, Sierpień 11

Komisja (UE): sztuczna inteligencja do samooceny, czyli List for Trustworthy AI

Google+ Pinterest LinkedIn Tumblr +

Dwa tygodnie temu Komisja (UE) opublikował bardzo ciekawy dokument „Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment”, który zawiera szczegółowe rekomendacje co do oceny stosowanych rozwiązań opartych o sztuczną inteligencję pod kątem ich zgodności z koncepcją Trustworthy AI (pisałem o niej m.in. tutaj). Choć obecnie nie mamy „twardych” regulacji (choć są już opracowywane – więcej tutaj i tutaj) i nie jest wcale powiedziane w jakim kierunku pójdzie Komisja (więcej w tym komunikacie), to wytyczne i rekomendacje w sprawie AI coraz częściej wywierają wpływ na regulatorów i tzw. policymakers. Warto więc przyjrzeć się zaleceniom ekspertów Komisji w tym zakresie. Tym bardziej, że Europejski Urząd Nadzoru Bankowego pracuje już nad wytycznymi sektorowymi (sektor finansowy) dla sztucznej inteligencji. Przejdźmy przez dokument. Zaczynamy! 

Zanim przejdziemy do meritum warto zwrócić uwagę na wspomniany przeze mnie Impact Assessmentopracowany przez Komisję, który ma umożliwić ocenę, w jaki sposób zostanie uregulowana kwestia AI. Komisja zakłada kilka scenariuszy:

1.     Miękka regulacja (soft law), która zakłada, że większość zasad będzie – na razie – nieobligatoryjna;

2.     Propozycja legislacyjna dot. nadawania „etykiet” rozwiązaniom opartym o AI, które są zgodne z zasadami Trustowrthy AI – przypomina mi to koncepcję „dobry produkt” czy standardy ISO – ciekawe jest jak Komisja widzi kwestię dokonywania oceny wszystkich elementów z listy przy najbardziej zaawansowanych algorytmach;

3.     Wprowadzenie „twardych” wymogów prawnych dla wybranych rozwiązań opartych o AI i mamy tutaj dwie opcje:

a.     AI wysokiego ryzyka oraz

b.     „podpięcie” określonych norm pod konkretne kategorie wykorzystujące AI, np. systemu identyfikacji biometrycznej;

4.     Połączenie powyższych rozwiązań z uwzględnieniem także udziału (inicjatyw) rynku, np. dobre praktyki czy kodeksy.

W tym kontekście Komisja podkreśla jeszcze jedną rzecz. Konieczność wyraźnego zdefiniowania czym jest sztuczna inteligencja i gdzie zaczynają się oraz kończą jej granice. To bardzo istotna uwaga.

No alt text provided for this image

Jak więc widać nie ma jeszcze jasnego kierunku zmian. Wydaje mi się jednak, że najlepszym rozwiązaniem byłaby tutaj opcja 4. Miękkie regulacje mają to do siebie, że zazwyczaj nie hamują postępu i dają odpowiedni poziom elastyczności. Z drugiej strony ważnym aspektem jest konieczność „twardszego” podejścia do tych rozwiązań, które mogą generować wyższe ryzyko dla człowieka, czyli wspomniane Hi-risk AI. To wydaje się akurat dobrym kierunkiem. Jak dołożymy do tego obecną rewizję zasad dotyczących odpowiedzialności za produkt niebezpieczny, to kombinacja wskazana w punkt 4 może być wystarczająca.

Lista, lista 

Zacznijmy od samej listy, która choć nie jest długa, to zawiera w sobie wiele wyzwań dla wdrażających AI. Mamy więc:

1.     Udział i nadzór człowieka;

2.     Technologiczna odporność i bezpieczeństwo; 

3.     Prywatność i zarządzanie danymi;

4.     Przejrzystość;

5.     Równość i różnorodność, zakaz dyskryminacji (tutaj od razu odsyłam do tego artykułu); 

No alt text provided for this image

6.     Zapewnienie odpowiedniego poziomu tzw. well-being (rozszerzę to zagadnienie w dalszej części);

7.     Odpowiedzialność.

Lista ta może posłużyć do wielu celów, ale może mieć szczególne znaczenie przy ocenie ryzyk związanych ze wdrażaniem nowych rozwiązań, co dla sektora finansowego jest niezwykle istotne.Ocena może być wykorzystywana także w trakcie audytu. Warto zwrócić uwagę na kwestie dotyczące zakazu niedyskryminacji, co może się pojawić w przypadku np. oceny zdolności kredytowej czy profilowania.

Kto powinien dokonywać oceny?

Eksperci Komisji wskazują, że powinny to być zespoły multidyscyplinarne, w skład których powinni wchodzić nie tylko „typowi” specjaliści w zakresie AI (w tym tzw. data scientists), ale również osoby wykorzystujące rozwiązania na front-endzie, prawnicy i pracownicy compliance oraz zarządzający, ale także osoby odpowiadające za zamówienia (np. publiczne).

Na początek

No alt text provided for this image

Przed przejściem do szczegółowych zasad, eksperci proponują ocenę czy dane rozwiązanie ogólnie „respektuje” prawa podstawowe. Skonstruowali oni cztery pytania, które mają w tym pomóc i mogą stanowić punkt wyjścia dla bardziej detalicznej analizy. Wśród pytań znajdziemy między innymi ocenę tego czy system AI może potencjalnie dyskryminować m.in. ze względu na kolor skóry, płeć miejsce urodzenie czy przynależność do mniejszości, ale także to czy respektuje prawa dziecka. Co istotne, na każdym etapie cyklu życia danego rozwiązania, a więc również w fazie projektowania.

Ważnym, jeżeli nie kluczowym, zagadnieniem jest także ocena w jaki sposób system AI zapewnia zgodność z Rozporządzeniem 2017/679 (RODO), w szczególności czy stosowane rozwiązania w odpowiedni sposób zabezpieczają dane osobowe. Co ciekawe, ocenie powinna także podlegać możliwość (wolność) wyrażania opinii oraz prawo do uzyskania rzetelnych informacji. To zagadnienie w jakimś stopniu adresuje już chociażby art. 105a Prawa bankowego (więcej tutaj i tutaj) czy projekt stanowiska UKNF w sprawie robo-advisory (finalna wersja ma podobno pojawić się w sierpniu).

I przechodzimy do szczegółów

Zakładając, że pozytywnie odpowiedzieliśmy sobie na powyższe pytania, możemy przejść do konkretnych rekomendacji ekspertów Komisji. Kolejnymi „etapami” zajmiemy się jednak już w kolejnym artykule, bo temat jest ciekawy i ważny.

Udostępnij.

Zostaw komentarz