Czy sztuczna inteligencja rozpozna nasze emocje na podstawie twarzy? Rada Europy rekomenduje “hold your horses”​ w kontekście facial recognition

Kilka tygodni temu Rada Europy opublikowała bardzo ciekawe wytyczne dotyczące automatycznego przetwarzania danych osobowych w kontekście wykorzystania rozpoznania twarzy (biometria). Dokument jest o tyle ciekawy, że stanowi bardzo jasną deklarację co do kierunku, w którym może podążać Europa w kontekście szerszego wykorzystania rozpoznawania twarzy np. w przestrzeni publicznej. A konkluzja jest taka, że wizja rodem z Cyberpunk 2077 na razie nam nie grozi, bo jednostka jest najważniejsza. 

Rada Europy wyraźnie wskazuje, że technologie wykorzystujące rozpoznawanie twarzy należą do jednych z najbardziej wrażliwych i podatnych na naruszenie indywidualnych praw jednostki, w tym prawa do prywatności. Dlatego, tak przynajmniej ja to odbieram, rekomendacją jest, aby państwa w ramach swoich demokratycznych procedur rozważyły możliwość zakazania stosowania facial recognition w niektórych przypadkach.

No alt text provided for this image

Jednocześnie Rada wskazuje, że wykorzystanie tego typu rozwiązań do określenia koloru skóry, przynależności religijnej, płci, rasy i pochodzenia etnicznego, wieku, zdrowia oraz statusu społecznego powinno być co do zasady zakazane, a jeżeli już dozwolone to pod warunkiem zapewnienia odpowiednich rozwiązań prawnych niwelujących ryzyko dyskryminacji. Nie oznacza to tym samym, że ma to być całkowita blokada rozwiązań, które mogą np. pomóc w wykrywaniu chorób. Ważne jest, aby algorytmy przetwarzania były przejrzyste i niestronnicze, a także zapewniały realizację podstawowych praw człowieka. Nie będzie łatwo, ale sztuczna inteligencja godna zaufania na tym właśnie polega.

To jednak nie wszystko

Rada „idzie” dalej w swoich rozważaniach. Przywołuje sytuacje, w których rozpoznawanie twarzy może posłużyć nam do oceny naszych cech, stanu emocjonalnego czy zdrowia psychicznego, np. w kontekście zatrudnienia. A to już jest potencjalnie niebezpieczne. Faktycznie. Czy nie powodowałoby to, że budowalibyśmy „idealne” społeczeństwo, a jednostki z „defektami” byłby odrzucane?

Jednocześnie nie jest tak, że facial recognition nie może być nigdy wykorzystane. Rada wskazuje tutaj, że przykładowo dla celów bezpieczeństwa państwo może zdecydować się na wprowadzenie tego typu rozwiązań, ale jest jedno „ale”. Rada wspiera możliwość jej wykorzystania w obszarze bezpieczeństwa – np. w kontekście działania organów ścigania (np. do celów „wyłapywania” jednostek podejrzanych), choć jak pokazują różne sytuacje – i tutaj mogą pojawić się spore wątpliwości. Przykładowo – czy człowiek raz skazany, po zatarciu skazania – nadal nie będzie widniał w bazie jako potencjalnie „niebezpieczny”? Pojawia się pytanie o to jak zapewnić, że algorytmy nie będą stronnicze. Czy usuwamy w takiej sytuacji całą „kartotekę”?

No alt text provided for this image

Dopuszczalne są także inne możliwości wykorzystania rozpoznawania twarzy w szeroko rozumianym sektorze publicznym, ale przy zachowaniu wszelkich gwarancji w zakresie praw jednostki. No i konieczne jest przeprowadzenie testów „konieczności”. Rada wskazuje tutaj przykładowo, że rozpoznawanie twarzy w szkołach czy innych budynkach publicznych, co do zasady, nie powinno być rozwiązaniem docelowym – a w pierwszej kolejności powinniśmy stosować rozwiązania alternatywne.

A co z sektorem prywatnym?

Nic nowego. Co do zasady zgoda – jak w RODO. Powoduje to, że wykorzystanie rozpoznawania twarzy może odbywać się jedynie w „zamkniętym” obiegu. Podmioty prywatne muszą także zadbać o to, aby zgoda użytkownika była „odpowiedniej jakości”, a więc m.in. zawierała jasne informacje dotyczące tego na jakie potrzeby wykorzystujemy czyjąś „twarz”. To oczywiście zobowiązuje także do wykorzystania danych biometrycznych tylko w tym konkretnym przypadku. Rada podkreśla także, że jeżeli dane mają być transferowane do podmiotu trzeciego, to podmiot prywatny musi zadbać o kolejną zgodę.

Ważne jest przy tym to, że Rada podkreśliła w dokumencie, że facial recognition nie powinno być wykorzystywane np. w centrach handlowych, np. do celów marketingowych czy nawet private security. Ograniczenia są więc całkiem spore. Z drugiej strony czy to źle? Jak byśmy się czuli wiedząc, że jesteśmy pod ciągłym „obstrzałem”?

I jeszcze jedna istotna kwestia:

„Passing through an environment where facial recognition technologies are used cannot be considered as an explicit consent”

Kolejne ważne kwestie

W dużym skrócie. Rada Europy rekomenduje, aby każde państwo zapewniło, że przy tworzeniu rozwiązań prawnych wykorzystujących technologie rozpoznawania twarzy zaangażowane były organy odpowiedzialne za ochronę danych osobowych. Ważna będzie tutaj współpraca i koordynacja.

Ponadto, ustawodawcy powinni stosować różne mechanizmy zapewnienia odpowiedzialności twórców i dostawców usług facial recognition, w tym nawet poprzez utworzenie odpowiednich mechanizmów certyfikacji. Rada zwraca tutaj uwagę na kwestie wykorzystania sztucznej inteligencji dla celów facial recognition. Opowiemy sobie o tym w kolejnym materiale.

Twórcy wytycznych wskazali także, że bardzo istotne jest zwiększanie świadomości osób podlegających lub mogących podlegać rozpoznawaniu twarzy. Z tego względu ważne jest podejmowanie różnych inicjatyw, w tym kampanii edukacyjnych. Społeczeństwo powinno mieć też swój udział przy decydowaniu o wykorzystaniu tego typu technologii w szeroko rozumianej przestrzeni publicznej.

A w następnym „odcinku” o…

O specyficznych wymaganiach dla deweloperów, twórców i dostawców usług opartych o facial recognition. Już teraz mogę zdradzić, że „Data Protection by Design” to podstawowa zasada. Do zobaczenia wkrótce.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *