Algorytm w zarządzie spółki? Trochę fantazji, a trochę pragmatyzmu.

Wyobraź sobie członka zarządu Twojej spółki, który nie wchodzi w konflikty osobowe, ma wiecznie „neutralny” nastrój i jest zawsze profesjonalny w swojej pracy. Jest też bardzo decyzyjny i ma analityczny „umysł” i zawsze wykonuje swoje zadania na czas. Wydaje się nierealne? Takich osób praktycznie nie ma, a jeżeli są, to na wagę złota. A gdybym napisał, że każdy może – potencjalnie – mieć taką „osobę” w zarządzie? Odjechałem? Trochę tak, trochę nie.

W 2014 r. w sieci pojawiła się informacja, że jeden z funduszy inwestycyjnych z Hong Kongu do swojego składu zarządu powołał algorytm. Od tego czasu co jakiś czas pojawiają się informacje o próbach „wdrażania” sztucznej inteligencji do korporacyjnej machiny. Z lepszym lub gorszym skutkiem. Oczywistym obszarem jest wspieranie zarządu w podejmowaniu decyzji, ale z zachowaniem autonomii jego członków, natomiast tutaj mówimy jednak o kroku dalej. Powierzeniu decyzyjności algorytmowi. Decyzyjności, która ma odzwierciedlenie w formalnych głosowaniach na posiedzeniach, wydawaniu zarządzeń czy poleceń podległym jednostkom.

Abstrakcyjne?

Jasne, że tak. Dzisiaj na samą myśl, że algorytm (czy jak kto woli sztuczna inteligencja) miałby podejmować za nas decyzję, dostajemy gęsiej skórki. No bo jak to? Komputer, a nie człowiek miałby być naszym szefem? A czy dzisiaj rzeczywiście jest inaczej?

Człowiek ma emocje, intuicję i jakiś poziom empatii (różny), który pozwala odróżnić go od maszyny. To na pewno. Wielu zarządzających nie kieruje się jednak np. emocjami, a twardymi danymi, które są generowane i dostarczane przez ich jednostki. Na tej podstawie – oraz na bazie własnej wiedzy i przede wszystkim doświadczenia – mówią nam „tak” lub „nie”, czyli w zasadzie mamy tutaj system binarny.

Zaraz ktoś powie – no a intuicja? A czym de facto jest intuicja – niczym innym jak jeszcze nie do końca rozpoznanym stanem, który – znowu bazując na naszych doświadczeniach i przekonaniach – nakazuje postąpić w konkretny sposób.

Jeżeli wiemy, jak działa algorytm np. uczenia głębokiego czy szerzej maszynowego, to znajdziemy pewne analogie. Oczywiście, algorytm jest „odhumanizowany”, a więc rzeczywiście opiera się wyłącznie o dane, które mu dostarczymy oraz to czego się sam nauczył. Tutaj jednak wchodzi tematyka tzw. „bias”, czyli stronniczości, którą algorytm także może nabyć w trakcie uczenia się. Może niekoniecznie – biorąc pod uwagę problem czarnej skrzynki i ilość dyskryminacyjnych i „fejkowych” materiałów – algorytm powinien odpowiadać za obszary wrażliwe jak zarządzanie zasobami ludzkimi czy kwestie etyczne, ale może tylko mi się tak wydaje.

No właśnie. Uczenie się.

Potencjalnie mamy dwie ścieżki. Farmy profesjonalnych robo-członków zarządów oraz „ustawienie” okresu przejściowego w celu poznania specyfiki „nadzorowanego” obszaru i nauczenia się określonych zależności pod okiem elementu „białkowego”, czyli człowieka.

No alt text provided for this image

Pierwszy model zakłada, że pewne rzeczy są na tyle wystandaryzowane, że da się ich nauczyć na bazie uniwersalnych danych, które nie muszą pochodzić z danego przedsiębiorstwa. Wydaje się, że takim obszarem mogłyby być finanse czy zarządzanie ryzykiem, ale możliwości jest z pewnością więcej. Taki algorytm można byłoby „nająć” – tak jak zatrudnia się managerów. Kolejna analogia.

W drugim modelu inwestujemy w „goły” algorytm o określonych parametrach, który następnie musimy nakarmić danymi, nadzorować jego rozwój, aby wreszcie mianować go członkiem zarządu. Jest on więc „spersonalizowany” – zna specyfikę zarządzanego przedsiębiorstwa i konkretnego obszaru, a przez to może podejmować bardziej „emocjonalne” decyzje. Pojawia się jednak ryzyko “bias” czy cyberbezpieczeństwa, które również ma duże znaczenie.

No i pozostaje kwestia “komunikacji” z pozostałymi członkami zarządu, szczególnie gdy decyzje podejmowane są kolektywnie. Wtedy trudno o dyskusję, ale i zebranie danych wejściowych.

Co z uzasadnieniem?

No alt text provided for this image

 Przynajmniej część decyzji wymaga uzasadnienia, a z tym algorytm (a także obsługujący-nadzorujący go operator) może mieć pewne trudności. Nie zawsze da się odtworzyć schemat „myślowy” – wyjaśnialność – a sam proces może być dodatkowo nieprzejrzysty (transparentność). Również w przypadku ewentualnej odpowiedzialności za decyzję mogłoby to nastręczać pewnych trudności. W niektórych – mniej istotnych kwestiach – wystarczyłoby jednak sprawdzenie danych wejściowych i wyjściowych, aby poznać „why”.

Technologia i zastępowalność

Proces podejmowana decyzji musiałby być cyfrowy (w tym w kontekście podpisów), a dodatkowo należałoby zapewnić algorytmowi odpowiednią ilość jakościowo dobrych danych przed podjęciem decyzji, a nie zawsze jest to możliwe. Co w takiej sytuacji? Można określić ścisłe ramy przekazywania „materiałów”, tak jak ma to zazwyczaj miejsce i co znajdziemy w regulaminie zarządu, ale w przypadku spraw ad hoc może być jednak problem. W takiej sytuacji można pomyśleć o zastępowalności przez człowieka lub w ogóle ułożyć ten proces w ten sposób, że to algorytm w pewnych sprawach zastępuje człowieka.

Mamy tutaj jednak wyzwanie w zakresie odpowiedzialności. Kto bierze je na siebie? W stosunkach wewnętrznych da się to ułożyć w regulaminie i procedurach, ale na zewnątrz?

I pytanie. Czy np. regulator uznałby algorytm za „godny” – odpowiedni – piastowaniu takiego stanowiska – fit and proper?

No właśnie. Czy to w ogóle możliwe?

Dochodzimy do sedna. Pomarzyliśmy sobie o idealnym zarządzie, ale teraz brutalna rzeczywistość. Przy innej okazji bardziej szczegółowo opiszę ten problem, ale w skrócie. Obecnie obowiązujące przepisy (kodeks cywilny, kodeks spółek handlowych), a także regulacje czy quasi-legislacja jak rezolucje Parlamentu Europejskiego nie pozostawiają wątpliwości:

„Wszelkie zmiany wymagane w obowiązujących ramach prawnych powinny rozpocząć się od wyjaśnienia, że systemy SI nie mają osobowości prawnej ani sumienia, a ich jedynym zadaniem jest służenie ludzkości. (…)

Parlament Europejski zauważa w tym względzie, że nie jest konieczne nadawanie systemom SI osobowości prawnej; wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów SI może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów SI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe; przypomina, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem SI”.

Sztuczna inteligencja nie jest osobą, a więc nie ma osobowości prawnej. Nie ma majątku (odpowiedzialność odszkodowawcza), nie ma autonomii, nie odpowiada samodzielnie, a za nią zawsze stoi człowiek. Dzisiaj jest to więc koncepcja nierealna (żałuję zaniechania prac nad e-osobowością), a algorytm może jedynie wspierać podejmowanie decyzji. Pytanie czy uzasadnieniem decyzji mogłoby być wskazanie – „algorytm tak powiedział”? Warto pomyśleć tworząc nowe akty i regulacje. Jest więcej pytań niż odpowiedzi.

Artykuł stanowi moją prywatną opinię i nie może być utożsamiany ze stanowiskiem jakiejkolwiek instytucji z którą jestem lub byłem związany.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *