Etyka i uprzedzenie, czyli algorytmy korporacji przewozowych w praktyce

Na wstępie zaznaczę, że artykuł nie ma na celu “szkalowania” żadnej z korporacji przewozowej, choć przykład, który dzisiaj opiszę jest jak najbardziej prawdziwy i dotyczy ważnej kwestii etyki algorytmów i tzw. biasu (stronniczności algorytmicznej). Przykład ten dotyczy przewozu z miejsca X do miejsca Y, zaś wybór odbywa się za pomocą aplikacji, która pozwala wybrać opcję “od kilometra” lub opcję z góry ustaloną ceną. Dzisiaj wybrałem opcję drugą, która zapewnia, że zapłacimy z góry ustaloną cenę. Cena ta zgodnie z deklaracją korporacji jest wyliczana w oparciu o takie czynniki jak trasa, przewidywany czas, natężenie ruchy czy nawet popyta na danym odcinku. Niestety nie znalazłem bardziej szczegółowego opisu stosowanego algorytmu czy jakichś wzmianek w dokumentach dot. usługi. O tym zresztą za chwilę.

Poranny kurs z miejsca X do Y wyniósł kwotę Z co do której nie mam raczej wątpliwości. Raczej standardowa. Kurs powrotny to już początek ciekawej historii, która skłoniła mnie do napisania tego artykułu. Miejsce Y to jeden z warszawskich hoteli ***** (to tutaj akurat istotne), a kurs powrotny odbywał się zaledwie 45 minut (żeby uniknąć niedomówień, chodzi o usługę medyczną) później niż pierwotny. Cena za ten kurs powrotny wyniosła według algorytmu Z + 20 zł, czyli dość sporo – uwzględniając fakt, że warunki drogowe (sprawdzone również przez inne aplikacje) nie zmieniły się prawie w ogóle. Jako, że jestem dociekliwy, to postanowiłem wybrać opcję powrotu zaledwie 400m dalej, z zupełnie “nieistotnego” miejsca. Jakież było moje zdziwienie, gdy okazało się, że za właściwie ten sam kurs miałem okazję zapłacić Z – 3 zł, a więc jeszcze mniej niż za kurs pierwotny.

No alt text provided for this image

Bazując na deklaracji korporacji taksówkowej i uwzględniając mój “pierwszy strzał” spod hotelu powinienem przecież zapłacić kwotę zbliżoną do Z + 20, a tutaj nagle taka promocja. Dla pewności jeszcze raz sprawdziłem kurs spod tego hotelu. Nic się nie zmieniło. Natężenie ruchu czy trasa raczej się nie zmieniły, a jeżeli nawet to na plus. Skłania to więc do przyjęcia, że sam fakt wyboru kursu spod renomowanego hotelu powiększa opłatę o 20 zł. Czyżby algorytm zakładał, że spod tego miejsca jeżdżą tylko zamożni goście hotelowi? Jeżeli tak, to czy jest to czynnik, który powinien być uwzględniany przy wycenianiu tej usługi. Abstrahuję tutaj od czystej, ludzkiej uczciwości, bo rynek jest wolny – co do zasady – bo usługi przewozowe są jednak regulowane, ale na pierwszy rzut oka mamy tutaj jakąś formę dyskryminacji lub stronniczości algorytmicznej (pisałem o tym już wielokrotnie tutaj).

Możemy założyć dwa scenariusze:

  1. Algorytm stosowany przez korporację “nauczył” się, że spod określony miejsc można “ściągnąć” więcej lub
  2. Algorytm był “zbiasowany” przez człowieka od samego początku, tj. człowiek wybrał pewne parametry, które są stałe i niezależne od “woli” algorytmu.

W pierwszym przypadku oznacza to, że dane wejściowe na bazie których uczył lub uczy się algorytm od samego początku były niewłaściwe, bo pytanie na jakiej podstawie tej system miałby wyciągnąć wnioski o “zamożności” klientów. Problemem byłoby tutaj więc niewłaściwe data governance i nadzór nad uczeniem się algorytmu.

W drugim przypadku zawiódł człowiek, który odpowiada przecież za opracowanie i nadzorowanie algorytmu, ale przede wszystkim zaprojektowanie samego rozwiązania i dobór właściwych czynników. W obu przypadkach mamy niewątpliwie problem natury etycznej, a wkrótce i prawno-regulacyjnej. Konsekwencją takiego podejścia jest nierówne traktowanie pasażerów i zasadniczo brak przejrzystości ze strony korporacji.

Byłbym w stanie zgodzić się z takim podejściem – jakkolwiek jest ono dla mnie “wątpliwe” – gdyby informacja o tym w jaki sposób działa algorytm lub jakie dodatkowe czynniki wpływają na końcową cenę – były przejrzyste i dostępne od ręki. W takiej sytuacji biorę usługę, którą rozumiem i to moje “ryzyko. Tutaj tego niestety nie ma. Projektowane rozporządzenie w sprawie sztucznej inteligencji ma to zmienić (więcej tutaj).

No alt text provided for this image

Idąc dalej zwróćmy uwagę, że w każdym ze scenariuszy mamy dość istotne naruszenie (brak?) zasad zarządzania danymi i nadzoru nad algorytmem. Zarówno wspomniany projekt rozporządzenia, jak i regulacje sektorowe (być może niekoniecznie dla sektora przewozów) czy wytyczne organizacji międzynarodowych, np. UNESCO zwracają uwagę na etykę, niedyskryminację i zarządzanie algorytmami w sposób efektywny i bezpieczny. Konieczne jest więc wdrażanie odpowiednich rozwiązań technicznych i organizacyjnych, które zapewnią, że działania organizacji będą etyczne i “ułożone”. Fakt, dzisiaj nie w każdym sektorze obowiązują konkretne wymogi w tym zakresie, ale chyba nie mamy wątpliwości, że to tylko kwestia czasu. A potencjalne szkody z niewłaściwego zarządzania mogą być naprawdę spore (reputacja, sankcje administracyjne czy po prostu straty biznesowe).

W tym wszystkim są nasze prawa (człowieka), które algorytmy i zarządzający nimi powinni uwzględniać (pisałem o tym tutaj). Możemy oczywiście tłumaczyć się, że przecież nikt nie każe nam korzystać z określonych usług. To prawda, mamy wolny wybór, choć nie możemy też zapominać o pewnych przepisach z zakresu ochrony konsumentów, które też nas chronią. W praktyce jednak biznes biznesem i ma na celu wypracowanie zysku, ale odpowiedzialność jest też za otoczenie biznesu, w tym jego klientów. Brak przejrzystości lub zbiasowane rozwiązania, które mogą dyskryminować na różnych polach, prędzej czy później mogą narobić więcej szkód.

Dlatego zarówno przy projektowaniu algorytmów czy systemów o nie oparte warto pamiętać o kilku zasadach:

  1. Właściwe zarządzanie danymi (wejściowymi i wyjściowymi oraz treningowymi) to podstawa.
  2. Nadzór człowieka na działaniem systemów nie może być iluzoryczny, ale powinien pozwolić na szybką i efektywną weryfikację oraz podjęcie stosownych działań.
  3. Klienci powinni wiedzieć “z czym” mają do czynienia – przejrzystość to nie “sucha” informacja, że mamy algorytm, ale konkretne wskazanie np. czynników wpływających na określone decyzje – w organizacji powinny funkcjonować też procesy na “reakcję” w przypadku zapytań klientów.
  4. Algorytmy są tworzone dla człowieka i powinny mu pomagać. Nie oznacza to, że nie mają zarabiać. Mają zarabiać, ale w sposób etyczny.

I tyle na dzisiaj. Mam nadzieję, że nowe rozwiązania prawne i regulacyjne wpłyną na jakość działania takich rozwiązań. Dzisiaj może nie mamy “głośnych spraw” w tym zakresie, ale postępująca cyfryzacja może to zmienić.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *