Czy nowe technologie potrzebują etyki i silniejszej ochrony?

Kto ma dane, ten ma władze. W tych coraz bardziej dynamicznych czasach nie mamy już wątpliwości, że technologia odgrywa bardzo ważną i znaczącą rolę w naszym życiu, a poziom „penetracji” tych technologii naszego życia będzie się tylko zwiększał. Te rozwiązania w znacznej mierze bazują na naszych danych, bo coraz ważniejszy dla nas jest produkt spersonalizowany, a nie masowy. Doceniamy też odpowiednie doświadczenia z użytkowania, które poznać nie jest łatwo (a może jednak?). Dostrzegamy też, że nasze dane mają wartość i trzeba je chronić, bo o potknięcie nie jest trudno, a (czasowa) utrata tożsamości to bolesna nauczka (np. finansowa).

Dlatego też coraz częściej mówimy o potrzebie zwiększania tej ochrony, o czym często piszę na swoim blogu. Mamy zwolenników luzowania i bardziej innowacyjnego podejścia do tej kwestii (do nich zaliczam się i ja – klik1klik2) oraz tych, którzy chcieliby jeszcze więcej. Nie wchodząc w dyskusję kto ma rację, bo każde z tych podejść ma określone fundamenty i cele, a wybór właściwej drogi to indywidualna decyzja społeczeństwa, nie ma wątpliwości, że jak nigdy potrzebujemy teraz nowego (a może wcale nie) podejścia, tj. ethics by default and design przy tworzeniu nowych rozwiązań (tutaj wczorajsza ankieta w tej sprawie).

Ta etyka, to nie tylko sztuczna inteligencja czy poprawniej – wykorzystanie automatyzacji, np. w kontekście AI godnej zaufania czy problematyki stronniczości algorytmów i dyskryminacji, ale także potrzeba takiego projektowania rozwiązań technologicznych czy aplikacji, które stawiają na ochronę danych i prywatności, o czym wspominała m.in. ENISA w kontekście internetu rzeczy (IoT), czyli data protection and privacy by default and design.

No alt text provided for this image

Oznacza, to ni mniej, ni więcej, że na każdym etapie rozwoju produktu czy usługi musimy myśleć o tym jak możemy zabezpieczyć interesy użytkowników, którzy mogą wiele stracić, np. wskutek ataku strony trzeciej (cybersecurity) czy np. niewłaściwego (nieetycznego) wykorzystania przez operatora algorytmu czy innego rozwiązania. Nie zawsze będziemy w stanie tego uniknąć, bo:

1.    Prawo i regulacje nie zawsze podążają za nowinkami technologicznymi, a oczekiwania je tworzące mogą być niekiedy nieco absurdalne;

2.    Nie zawsze się po prostu da – np. problem black boxa przy bardziej zaawansowanych rozwiązaniach;

3.    Nie wszyscy „aktorzy” w cyklu życia produktu będą należycie wyedukowani w kwestiach zapewnienia #ethicsbydesign, a to rodzi ryzyko błędów – często zupełnie niezamierzonych;

4.    Wytyczne są bardzo niejasne, a neutralność technologiczna nie zawsze gwarantuje właściwe jej zastosowanie;

5.    Risk-based approach, czyli podejście oparte o ryzyko, nie zawsze jest „bezpieczne”, bo poziom apetytu na ryzyko może być bardzo zróżnicowany.

No alt text provided for this image

W konsekwencji możemy jednak sporo stracić, bo nie chodzi tylko o ewentualne sankcje ze strony organów nadzoru (nie będzie to tylko UODO, GIIF, ale także nowe organy, które mają powstać na bazie różnych projektów aktów – w tym Data Governance Act czy NIS2 oraz regulatorzy sektorowi), ale także odpowiedzialność odszkodowawczą czy utratę reputacji, a także pozycji rynkowej. A pamiętajmy, że reputacji nie da się tak łatwo odzyskać. Szczególnie, jeżeli utracimy ją na skutek np. wycieku danych czy jakiejś formy dyskryminacji użytkownika.

Etyka ma jednak jeszcze szerszy kontekst. Nawet jeżeli wykorzystujemy pewne dane na bazie – choćby najbardziej świadomej zgody ich właściciela – to nas ciąży, aby wykorzystywać je w sposób etyczny – niewykraczający poza pewne ramy społeczne czy ewentualne ograniczenia o miękkim charakterze. Dlatego też Unia Europejska zdecydowała się na wprowadzenie nowych rozwiązań jak Digital Markets czy Digital Services Act oraz rozporządzenie w sprawie e-Privacy. Same akty prawne czy regulacje nie uchronią jednak przed takimi nieetycznymi zachowaniami ludzi, którzy stoją za projektowaniem określonych technologicznych rozwiązań – czy to dla zysku, sławy czy z innych pobudek.

No alt text provided for this image

Dlatego tak ważna jest edukacja. I to na różnych poziomach i w różnych obszarach. Nie jesteśmy wprawdzie zmienić czyjejś moralności, bo to decyzja każdego człowieka, ale możemy kreować pewne wartości jako wartości naczelne i „aplikowalne” dla całego społeczeństwa. Możemy też wymagać pewnych zachowań lub chociaż rekomendować ich stosowanie, dając określone wskazówki.

Można to osiągnąć na wiele sposobów. Możemy szkolić i przeprowadzać warsztaty. Możemy wymagać uzupełniania wiedzy w tym zakresie. Możemy nakładać obowiązki. A możemy też po prostu uczulać na wrażliwe tematy. Ważny jest efekt końcowy.

Przeprowadzając ostatnią ankietę w sprawie potrzeby edukowania „technologicznych” i „biznesowych” z zakresu regulacji i prawa nie spodziewałem się takich wyników. Byliście raczej zgodni, że w nowych – cyfrowych – czasach musimy i o tym pamiętać, bo etyka nabiera zupełnie innego wymiaru i znaczenia. Nie jest już to tylko „dobra praktyka”, ale powoli staje się ona fundamentem naszego społeczeństwa. I jeżeli o to nie zadbamy, to za kilka lub kilkanaście lat możemy znaleźć się w zupełnie innym – niekoniecznie przyjaznym świecie.

Jednocześnie jednak musimy pamiętać o jednym – trzeba zrobić to rozsądnie, bo nakładanie masowych obowiązków czy ograniczanie możliwości stosowania pewnych rozwiązań, może przyczynić się do zahamowania rozwoju i innowacji (spójrz na ostatnie wytyczne w sprawie Virtual Voice Assistants). A tego chyba nie chcemy widząc chociażby jak nowe technologie mogą pomagać np. w ochronie zdrowia czy edukacji. Ma więc być bezpiecznie, etycznie, ale i dynamicznie oraz innowacyjnie. To duże wyzwanie wymagające globalnego podejścia, ale czy nie żyjemy już w jednej globalnej „wiosce”?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *