niedziela, Marzec 29

Case study: sztuczna inteligencja w handlu algorytmicznym na bazie The ethics of artificial intelligence: Issues and initatives

Google+ Pinterest LinkedIn Tumblr +

Parlament Europejski opublikował niedawno bardzo ciekawy dokument „The ethics of artificial intelligence: Issues and initatives”. Jest to pozycja ciekawa m.in. ze względu na praktyczne podejście do tematu wykorzystania AI w różnych obszarach naszego życia. Choć sektorowi finansowemu poświęcono niewiele (zaledwie dwie strony) i nie wszystkie realne wyzwania związane ze sztuczną inteligencją zostały przedstawione, to postanowiłem przyjrzeć się tym przykładom i spróbować znaleźć rozwiązanie wskazanych tam dylematów. Będzie krótko, ale – mam nadzieję – treściwie. Zaczynamy!

Na początek przypomnienie kilku artykułów, które stanowić będą bazę dla moich rozważań:

  1. Sztuczna inteligencja a RODO: niedyskryminacja i równość. Czy to w ogóle możliwe?
  2. Czy sztuczna inteligencja zapłaci nam odszkodowanie? Najnowszy raport Komisji (UE) w sprawie odpowiedzialności AI. Cz. 1. Podstawowe zasady
  3. Dlaczego sztuczna inteligencja to nie osoba (prawna)? Trochę przemyśleń na styku prawa, psychologii oraz technologii
  4. Aspekty prawne sztucznej inteligencji w najnowszej Polityce Rozwoju Sztucznej Inteligencji w Polsce. Czy sztuczna inteligencja będzie mogła nabywać nieruchomości?
  5. Czy „Biała Księga” Komisji (UE) w sprawie sztucznej inteligencji pomoże sektorowi finansowemu? Pierwsze wrażenia po lekturze „White Paper On Artificial Intelligence – A European approach to excellence and trust”
  6. Inwestycje ręką robota. Czym jest robo-advisory i gdzie nas może zaprowadzić?
  7. Inwestycje dokonywane przez komputer? To możliwe. Wymogi organizacyjne dla handlu algorytmicznego.

Handel algorytmiczny

To jeden z tych przykładów, kiedy sztuczna inteligencja może przynieść korzyści, ale również zaszkodzić. Jest to związane z dużo szybszym podejmowaniem decyzji przez algorytm niż może to mieć miejsce w przypadku udziału człowieka. O ile nie da się przewidzieć wszystkich sytuacji, w których algorytm zawiedzie, np. na skutek odcięcia dopływu danych, to sytuacja komplikuje się w przypadku, gdy mamy udział osoby trzeciej lub niewłaściwym postępowaniem algorytmu i trudnościami w zidentyfikowaniu, gdzie mamy błąd.

Autorzy dokumentu wskazują, że autonomiczne systemy handlu (algorytmicznego) mogą „dokonywać” przestępstw finansowych jak np. manipulacji. Z dostępnych danych wynika (choć ja osobiście tych danych nie widziałem), że sztuczna inteligencja może nauczyć się „sztuczek” tradingowych, które mogą wiązać się z ryzykiem naruszenia przepisów o obrocie instrumentami finansowym.

Innym przykładem może być rozpowszechnianie nieprawdziwych informacji w celu wpłynięcia na kurs akcji, co również ma znamiona manipulacji (art. 5 dyrektywy MADII). Prawda jest taka, że sztuczna inteligencja, o ile jest wystarczająco zaawansowana może działać jak trader, który również jest podatny na różne pokusy, a nawet bardziej, bo dysponuje większym zakresem informacji, a także ma ściśle określony cel, który powinna zrealizować. Wplecenie w działanie algorytmu aspektów etycznych może być bardzo trudne, chociażby ze względu na trudności w „skantyfikowaniu” i opisaniu wszystkich tego typu zachowań.

Odpowiedzialność za AI

Zasadniczymi problemami jakie pojawiają się w tym kontekście to:

  1. Przypisanie odpowiedzialności cywilnej:
    1. Twórcy oprogramowania;
    2. Sprzedającemu takie rozwiązanie czy
    3. Firmie inwestycyjnej (agentowi).
  2. Przypisanie odpowiedzialności karnej algorytmowi (?), co może być szczególnie trudne w przypadku, gdy przy manipulacji musi wykazać zamiar.
  3. Jak udowodnić działanie algorytmu w sposób sprzeczny z prawem i zasadami etyki;
  4. Czy mamy do czynienia z winą.

W tym miejscu warto zaznaczy, że choć handel algorytmiczny to nie robo-advisory, to wytyczne w tym zakresie byłyby bardzo pomocne.

Pierwsze zagadnienie jest „stosunkowo” proste do rozstrzygnięcia. Zakładając, że w przypadku algorytmów bazujemy na zasadach odpowiedzialności za produkt niebezpieczny (a taką koncepcję zakładają raporty Komisji oraz podejście krajowe), to co do zasady za działalnie sztucznej inteligencji „zajmującej” się handlem algorytmicznym będzie odpowiadał producent (oczywiście przy spełnieniu dodatkowych warunków). W praktyce nie jest to jednak tak oczywiste.

Jeżeli przyjrzymy się art. 449(3) par. 2 Kodeksu cywilnego to okaże się, że producent nie odpowiada również wtedy, gdy właściwości niebezpieczne produktu ujawniły się po wprowadzeniu go do obrotu, chyba że wynikały one z przyczyny tkwiącej poprzednio w produkcie. Nie odpowiada on także wtedy, gdy nie można było przewidzieć niebezpiecznych właściwości produktu, uwzględniając stan nauki i techniki w chwili wprowadzenia produktu do obrotu, albo gdy właściwości te wynikały z zastosowania przepisów prawa.

Tutaj pojawia się pytanie na ile taki algorytm jest autonomiczny i rzeczywiście uczy się oraz podejmuje decyzje całkowicie samodzielnie i na ile określenie określonego celu jest „za wszelką cenę”, a na ile zostało ograniczone stosownymi ramami etycznymi i prawnymi (i na ile to możliwe). No i na ile odpowiada za to programista. Można tutaj oczywiście podpierać się zestawami danych, na których swoje działanie opiera algorytm, ale to nie zawsze będzie miarodajne. No i pytanie jak ograniczyć dostęp do danych, które powstają real-time, np. jeżeli algorytm dostrzeże, że ktoś kto dokonał manipulacji i na tym zyskał, to czy nie wykorzysta podobnej informacji w przyszłości?

Podobne pytanie powstaje w przypadku oceny, czy jest możliwa ocena czy te nowe „fraudalentne” właściwości algorytmu nie powstały później, co z resztą pokrywa się z punktem 3. Szczególne trudności pojawią się w przypadku rozwiązań typu „black box”.

A czy można przypisać odpowiedzialność karną algorytmowi? Oczywiście nie. Przynajmniej na razie. Ocena czy taką odpowiedzialność można przypisać konkretnej osobie będzie też wypadkową odpowiedzi na wyżej postawione pytania i nie jest jednoznaczna. Pytania czy ktoś kto korzysta z takiej AI działa intencjonalnie, czy bada (monitoruje) jak działa algorytm etc. Nie są to kwestie do rozstrzygnięcia na zupełnie abstrakcyjnym przykładzie.

Podobnie z oceną czy mamy tutaj do czynienia z winą (umyślną/nieumyślną). Przecież algorytm realizuje tylko określony cel. A że czasem zrealizuje go niezgodnie z prawem czy etyką…

Czyli jednak nie tak prosto…

I to trochę tłumaczy pewną niechęć do wdrażania innowacyjnych rozwiązań opartych o AI. To wszystko pewne domysły, bo nie mamy jasnych wytycznych co do odpowiedzialności i tego jak podejść do transparentności algorytmów (czy w ogóle to dobry i realny kierunek?). Dopóki będą istniały tak duże wątpliwości może okazać się, że wdrożenie AI-revolution może nie być możliwe. Jest to jednak temat, któremu warto się przyglądać.

 

 

 

 

Udostępnij.

Zostaw komentarz