Sztuczna inteligencja zawiera umowę? Dlaczego to niemożliwe?
Tematyka (braku) osobowości prawnej AI często „gości” na łamach portalu (klik1; klik2; klik3), co jest oczywiście pochodną tego, że chyba niewiele jeszcze wiemy na temat tego w jakim kierunku powinna pójść regulacja tego obszaru. Ja sam jestem dość sceptyczny co do tego czy przyznawać taką osobowość prawną sztucznej inteligencji, która przecież „osobą” nie jest (dlaczego tak uważam napisałem w tym artykule). Jestem jednak też zwolennikiem postępu technologicznego i jego wykorzystania dla naszej „wygody”, a więc szukam różnych rozwiązań, które mogłyby nam „załatwić” część wyzwań prawno-regulacyjnych. Dzisiaj postanowiłem zmierzyć się z tym co można zrobić, aby sztuczna inteligencja mogła zawierać kontrakty i czy w ogóle w naszym porządku prawnym jest to w ogóle możliwe, np. w celu „odczłowieczenia” uciążliwych procesów związanych z podpisywaniem umów. Przejdźmy więc do konkretów (przynajmniej części).
I od razu moja odpowiedź (może ktoś się nie zgodzi). W obecnym kształcie nie jest to chyba do końca możliwe, jeżeli czytamy przepisy bardzo literalnie. Problem polega bowiem na tym, że oświadczenia woli, zgodnie z art. 60 kodeksu cywilnego, wola osoby dokonującej czynności prawnej może być wyrażona przez każde zachowanie się tej osoby, które ujawnia jej wolę w sposób dostateczny, w tym również przez ujawnienie tej woli w postaci elektronicznej (tutaj dla określonych czynności prawnych mamy art. 78(1) KC).
Mamy tutaj osobę, a sztuczna inteligencja osobą nie jest, a więc nie ma zdolności do czynności prawnych (nawet ograniczonej) i przez to nie może składać oświadczeń woli skutecznych dla określonej czynności, np. zawarcia umowy sprzedaży czy o świadczenie usług. I nie ma co tutaj dyskutować nad tym czy AI powinno mieć jakąś formę osobowości, bo na razie nie ma takiej woli zarówno na poziomie UE, jak i Polski.
AI mogłoby to robić szybciej
Nie myślę tutaj o dość ryzykownych rozwiązaniach jak Digital Autonomous Organizations (DAO), które w zamyśle mają być całkowicie niezależnym organizacjami (spółkami) rządzącymi się kodem. Chodzi mi raczej o sytuacje, w których AI powierzamy dokonanie podstawowej weryfikacji naszego kontrahenta (z uwzględnieniem określonych zasad oceny, np. ryzyka) i zawarcia umowy albo w swoim własnym imieniu, albo naszym.
W tym wszystkim chodzi jedno o to, aby oświadczenie woli (np. ofertę made-to-measure – w rozumieniu art. 66 Kodeksu cywilnego) składała sztuczna inteligencja, czyli algorytm spełniający warunki testu Turinga.i będący wystarczająco autonomiczny, żeby „samemu” podjąć taką decyzję. Pozwoliłoby to na automatyzacje wielu frustrujących procesów np. związanych z KYC, które mogłyby być wykonywanej szybciej i chyba lepiej, bo jak pokazują różne dane, AI jest po prostu od nas lepsze w niektórych czynnościach.
Musielibyśmy tutaj jednak pamiętać o wszystkich tych zasadach, które określa koncepcja tzw. Trustworthy AI, o której pisałem m.in. tutaj przy okazji tematu niedyskryminacji.
Na myśl przychodzi mi tylko jeszcze jedna kwestia. Czy AI będzie równorzędnym partnerem, czy też regularnie jako ludzie będziemy powoływali się na art. 5 Kodeksu cywilnego?
Czyli się nie da?
W takim ujęciu jak wskazałem powyżej i bez przyznania chociażby ograniczonej zdolności do czynności prawnych (art. 15 i art. 17) – raczej nie. Poza już wskazanym przeze mnie art. 60 i jego „osobowym” charakterem.
Pojawiają się nam tutaj też inne wyzwania jak te związane z identyfikacją AI (sztuczna inteligencja nie posługuje się przecież żadnym dowodem tożsamości, a prawdziwie cyfrowego eID nadal nie mamy). Jeżeli sztuczna inteligencja nie miałaby osobowości to jakie jej elementy byłby atrybutami tożsamości?
Może certyfikaty zbudowane w oparciu o Rozporządzenie 910/2014 (eIDAS), przy czym jeżeli mówimy o identyfikacji elektroniczej, to definicja z ww. rozporządzenia nie pozostawia złudzeń – jest to proces używania danych w postaci elektronicznej identyfikujących osobę, unikalnie reprezentujących osobę fizyczną lub prawną, lub osobę fizyczną reprezentującą osobę prawną. Czyli albo zmiana rozporządzenia, albo osobowość prawna dla AI.
Mamy też inne wyzwania
Jeżeli chcielibyśmy dokonać czynności prawnej (tzw. AI miałoby to zrobić) w formie elektronicznej, to mamy z kolei art. 78(1) Kodeksu cywilnego, który stanowi, że 1do zachowania elektronicznej formy czynności prawnej wystarcza złożenie oświadczenia woli w postaci elektronicznej i opatrzenie go kwalifikowanym podpisem elektronicznym. Świetnie, tylko czy „podpisującym” w rozumieniu Rozporządzenia eIDAS mogłoby być AI? Definicyjnie? Niestety nie, bo podpisującym jest osoba fizyczna, która składa podpis elektroniczny.
No więc klops, bo nie bardzo mamy możliwość przeskoczyć te bariery bez wprowadzenia istotnych zmian do naszego porządku prawnego i to jak widać – zarówno na poziomie UE, jak i krajowym.
A mamy jeszcze…
Kwestię odpowiedzialności, ale tą jeszcze jako tako da się „załatwić”. Zakładając, że stosujemy reżim z art. 449(1) Kodeksu cywilnego (odpowiedzialność za produkt niebezpieczny) lub inną odpowiedzialność deliktową (rzecz, pies), to czysto teoretycznie można by było tutaj tę kwestię odhaczyć. Jeżeli jednak przyjmujemy, że AI samo odpowiada za siebie, to sprawa nam się jednak komplikuje, bo ram prawnych dla takiej odpowiedzialności nie ma i nie będzie, dopóki AI będzie „czymś” a nie „kimś”.
A, byłbym zapomniał. Przy okazji propozycji Komisji (UE) dot. odpowiedzialności AI (pisałem o niej tutaj), eksperci wskazali „(…) all physical or virtual activities, devices or processes that are driven by AI systems may technically be the direct or indirect cause of harm or damage, yet are always the result of someone building, deploying or interfering with the systems (…)”.
Można sobie jednak wyobrazić pewne rozwiązania
I mam na to jakiś pomyśl, choć pewnie cywiliści mnie zjedzą. Niemniej jednak w jednym z kolejnych artykułów postaram się przybliżyć moje przemyślenia. A może już teraz ktoś ma jakiś pomysł?