Sztuczna inteligencja w rękach nadzorcy? Czy AI może wydać decyzję administracyjną?
Ostatnie tygodnie to prawdziwy wysyp publikacji poświęconych RegTech i SupTech, co tylko potwierdza tezę, że wobec postępującej cyfryzacji organy nadzoru muszą jeszcze szybciej zacząć dostosowywać się do nowych wyzwań (klik1; klik2). Rozmawiając o nowych technologiach w nadzorze często mówimy o wykorzystaniu interfejsów dostępowych (API), poprawie workflow czy automatyzacji lub zwiększeniu efektywności raportowania. To wszystko bardzo potrzebne rozwiązania, które nie są jednak łatwe do wdrożenia ze względu na koszty, ograniczenia podmiotu publicznego (np. outsourcing versus tajemnica zawodowa) czy najzwyczajniej brak takich narzędzi na rynku. Ale nie o tym będę dzisiaj pisał.
A co gdyby pójść o krok dalej i „przekazać” sztucznej inteligencji prawo do decydowania o naszych prawach i obowiązkach? Zakładamy tutaj oczywiście, że mowa bardziej rozbudowanym narzędziu, a nie „zwykłym” algorytmie opartym o uczenie maszynowe. To oczywiście trochę futurystyka, ale z drugiej strony jeszcze kilka lat temu na słowo „chmura” patrzyliśmy w niebo, a nie serwery w jednym z data center.
Załóżmy więc taki scenariusz…
Nadzorca inwestuje w system AI. System ma dostęp do danych podmiotu, które ten podmiot udostępnia poprzez API (real-time supervision). AI może swobodnie korzystać z dotychczasowego dorobku administracyjny (decyzje) oraz orzecznictwa sądowego i wydaje wobec takiego podmiotu decyzję. Nieważne jaką. Może ona dotyczyć przyznania zezwolenia lub jego cofnięcia, nałożenia kary administracyjnej czy innych kwestii wymienionych w ustawie o nadzorze nad rynkiem finansowym czy prawie bankowym.
Abstrahujemy także od tego kto taką decyzję podpisuje, bo to i tak kompetencja przedstawicieli organu, a AI i tak osobowości prawnej – na razie – mieć nie będzie. Nie jest to więc „klasyczne” wydanie decyzji „od-do”, a przygotowanie całego rozstrzygnięcia (pytanie czy różni się to od pracy, którą dzisiaj wykonują pracownicy UKNF?). Rzec można – czynność techniczna. Czy można?
Dzisiaj nie uda mi się tego rozstrzygnąć
Ale spróbuję zasiać trochę wątpliwości (choć jest ich znacznie więcej). Zacznijmy od ustawy o nadzorze nad rynkiem finansowym. Art. 11 ust. 5 wskazuje, że do wydawania decyzji przez KNF stosujemy przepisy Kodeksu postępowania administracyjnego. KPA w art. 107 wskazuje jakie elementy powinna zawierać decyzja. Nas interesuje – poza rozstrzygnięciem – kwestia uzasadnienia.
Art. 107 par. 3 KPA wskazuje, że uzasadnienie faktyczne decyzji powinno w szczególności zawierać wskazanie faktów, które organ uznał za udowodnione, dowodów, na których się oparł, oraz przyczyn, z powodu których innym dowodom odmówił wiarygodności i mocy dowodowej, zaś uzasadnienie prawne – wyjaśnienie podstawy prawnej, z przytoczeniem przepisów prawa.
Dlatego też uzasadnienia do decyzji administracyjnych są zwykle tak obszerne. W tym miejscu bardzo kusi możliwość wykorzystania AI/ML, które przeanalizują zbiory dostępnych danych i opracują sensowną argumentację (uzasadnienie). Pojawia się jednak pierwszy problem – traceability.
Tematyka pojawia się w wielu opracowaniach Komisji czy Parlamentu Europejskiego i oznacza m.in. możliwość śledzenia procesu „decyzyjnego” systemu opartego o AI czy ML. Lista do samooceny opracowana przez Komisję (UE) wyraźnie wskazuje, że operator tego systemu musi mieć odpowiednie rozwiązania pozwalające na odtworzenie tego procesu decyzyjnego (w tym na jakich danych bazował algorytm). Z kolei Financial Stability Board wskazuje, że „lack of transparency of some SupTech applications could have implications for the accountability of an authority” i w efekcie może doprowadzić do zmaterializowania się ryzyka utraty reputacji.
Wracając do przykładu. Nawet jeżeli uzasadnienie zawiera wszystkie elementy wskazane w art. 107 par. 3 KPA, bo zakładamy, że nasz system jest tak zaawansowany, że nauczył się na bazie wcześniejszych – podobnych sprawa – te elementy generować, to nadal istnieje spore ryzyko, że nie będziemy w stanie odtworzyć wszystkich „schematów myślowych”. Dotyczy to także „powrotu” do danych, na których AI oparło swoją decyzję.
Innym problemem może być właściwa interpretacja przepisów prawa i subsumpcja, czyli „podpięcie” stanu faktycznego pod przepisy. Są one zazwyczaj na tyle elastyczne (nieprecyzyjne), że dają duże pole do interpretacji – nie zawsze właściwej, choć tutaj AI ma przewagę, bo może przejrzeć orzecznictwo (o ile jest dostępne w odpowiednim formacie) i na tej bazie „ukuć” pewien standard interpretacji.
Teoretycznie jednak sąd może żądać – w przypadku powstania sporu – pokazania, dlaczego decyzja poszła w tym, a nie innym kierunku. I co wtedy? Czy organ nadzorczy powinien w jakiejś części ujawnić, jak działa algorytm? No i pytanie – jak ocenić jakość danych?
Pojawia się jednak kwestia etyczna
Abstrahując jednak od tego warto zwrócić uwagę na jeszcze jedną (lub dwie) kwestie. Wszystkie rozwiązania oparte o AI mają być etyczne, co oznacza m.in. poszanowanie praw podstawowych, w tym niedyskryminowanie. To jest aspekt, który zahacza też o wspomniane traceability i w ogóle przejrzystość oraz tworzenie AI dla człowieka.
Takie ustawienie algorytmu, aby spełniało powyższe wymagania może być trudne, choć nie niemożliwe. Jest to jednak coś na co szczególnie trzeba zwracać uwagę w przypadku realizacji „imperium” państwowego.
I przychodzi mi jeszcze jedna kwestia do głowy, choć chyba bardziej filozoficzna. Czy jedna ze strona, która korzysta z zaawansowanych rozwiązań AI nie ma „nadmiernej” przewagi? W tym miejscu pozostawiam duży znak znak zapytania. Wrócę niedługo z kolejnymi przemyśleniami.