2023-01-25 11:48:50 JPM redakcja1 K

Jakie dylematy moralne wiążą się z wykorzystaniem sztucznej inteligencji?

Zastosowanie algorytmów oznacza rewolucję w systemach bezpieczeństwa i monitoringu. Znaczenia nabiera jednak etyczne i odpowiedzialne korzystanie z obiecujących zasobów technologicznych, coraz to lepszej jakości, niebędących jednak wolnych od ryzyka

Zdjęcie: iStock

Z wielką mocą wiąże się wielka odpowiedzialność! Słynne zdanie rozpowszechnione przez Stan’a Lee, twórcę Spider-Mana w swoich komiksach, okazuje się być prawdą. Sztuczna inteligencja (AI – z angielskiego artificial intelligence) to dziedzina innowacji technologicznych, w której dokonują się niesamowite postępy. Chociaż koncepcja ta istnieje od momentu konferencji w Dartmouth w 1956 roku, dopiero w ostatniej dekadzie systemy i algorytmy sztucznej inteligencji wtargnęły na siłę do naszego codziennego życia. 

Zdaniem kognitywisty Marvina Minsky'ego nauczyliśmy komputery podejmowania autonomicznych decyzji „wymagających inteligencji” i jest to osiągnięcie „równie spektakularne i dające nadzieję, co niepokojące”. Nie chodzi już o roboty, które precyzyjnie wykonują z góry określone zadania, ale o sztuczne systemy, które same „podejmują decyzje”, symulując nasze procesy poznawcze i uczenia się.

Dla Davida Leslie’go z Instytutu Alana Turinga (Londyn), autora pionierskiego dokumentu Understanding Artificial Intelligence Ethics and Safety, „kiedy ludzie wykonują zadania wymagające inteligencji, ocenia się stopień precyzji, niezawodność i mądrość ich decyzji”. W szczególności są oceniani na podstawie „wpływu ich działań na innych ludzi”. I ten stopień wymagań etycznych i prawnych musi dotyczyć także coraz bardziej złożonych i wyrafinowanych systemów sztucznej inteligencji, które wykorzystujemy w takich sektorach jak zdrowie, edukacja, transport czy bezpieczeństwo. Ale pojawia się pytanie: czy sztuczna inteligencja może być etycznie i prawnie odpowiedzialna za swoje działania?

Rozwój systemów nadzoru lotnisk opartych na sztucznej inteligencji niesie ze sobą również ryzyko etyczne. Kamery termowizyjne lub do rozpoznawania twarzy to rzeczywistość na lotniskach | Zdjęcie: Izabela Habur (Getty Images)

Dokładne i nieinwazyjne systemy bezpieczeństwa 

Dylematy etyczne pojawiają się ze szczególną wyrazistością w obszarze tak wrażliwym na innowacje, jakim jest bezpieczeństwo. „Technologia daje naszym systemom bezpieczeństwa supermoce” - mówi José Daniel García Espinel, dyrektor ds. innowacji w firmie Prosegur. Firma ochroniarska pogrążona jest w procesie głębokiej odnowy technologicznej, którą znacząco przyspieszyła pandemia. Dziś firma dysponuje systemami do jakościowej analizy obrazu pozyskiwanego z kamer monitoringu wizyjnego, pionierskimi systemami wykrywania pożarów, hałasu, gazów czy spadających przedmiotów, bezinwazyjnymi kontrolami dostępu z pomiarem temperatury oraz weryfikacją indywidualnych zabezpieczeń. Cały nowowprowadzony arsenał technologiczny służy tworzeniu coraz bezpieczniejszych środowisk, a jest to możliwe, jak wyjaśnia García Espinel, przy „intensywnym wykorzystaniu rozwijających się algorytmów sztucznej inteligencji lub przy wykorzystaniu innych, już istniejących”

ZASTOSOWANIE NOWYCH TECHNOLOGII DO MONITOROWANIA INFRASTRUKTURY TRANSPORTOWEJ ZOSTAŁO PRZEPROWADZONE Z PEŁNYM POSZANOWANIEM OBOWIĄZUJĄCYCH RAM PRAWNYCH DOTYCZĄCYCH OCHRONY DANYCH ORAZ PO UPRZEDNIEJ REFLEKSJI DOTYCZĄCEJ ETYCZNEGO WYKORZYSTANIA SZTUCZNEJ INTELIGENCJI ~ José Daniel García Espinel, dyrektor ds. innowacji w firmie Prosegur

Przykładem zastosowania nowych technologii w ochronie i monitoringu w praktyce jest infrastruktura transportowa, środowisko, w którym kontrole można przeprowadzać szybko i płynnie, bez niedogodności dla użytkownika, ponieważ ochroniarza wspomaga inteligentna kamera wideo podłączona do systemu komunikacyjnego, centrum zdalnego sterowania i centrum operacji bezpieczeństwa (SOC – z angielskiego Security Operations Center). García Espinel zwraca uwagę, że „ten skok jakościowy dokonał się w bardzo skrupulatny sposób, z pełnym poszanowaniem obecnych ram prawnych dotyczących ochrony danych i po uprzedniej refleksji nad wątpliwościami etycznymi związanymi z wykorzystaniem technologii takich jak sztuczna inteligencja”.

Nowe ramy prawne

21 kwietnia ub.r. Komisja Europejska podała do wiadomości publicznej podstawy przyszłego rozporządzenia dotyczącego wykorzystania sztucznej inteligencji. Zakłada ono że „potencjalne korzyści sztucznej inteligencji dla naszych społeczeństw są wielorakie” i że większość wdrożonych systemów będzie przedstawiać „zerowe lub niskie ryzyko”. Jednak w szczególnych przypadkach, w których występuje takie ryzyko, Komisja zobowiązuje się do zagwarantowania „ochrony podstawowych praw obywateli europejskich”. Przewidziany jest również system sankcji administracyjnych, który dotykać będzie zarówno dostawców tych systemów, jak i ich użytkowników. Za najpoważniejsze naruszenia groziła będzie kara do 30 mln euro lub, jeśli sprawcą jest firma, do 6% jej rocznego obrotu.

PREZESI DUŻYCH FIRM POWINNI MIEĆ ŚWIADOMOŚĆ, ŻE NIEKTÓRE DECYZJE MOGĄ NARUSZYĆ PRAWO I STAĆ SIĘ NIEETYCZNYMI ~ Iñaki Ortega, ekonomista i profesor na Międzynarodowym Uniwersytecie w La Rioja (UNIR)

Dla ekonomisty i profesora Międzynarodowego Uniwersytetu w La Rioja (UNIR), Iñaki’ego Ortegi, nadszedł czas ponoszenia pełnej odpowiedzialności: „Menedżerowie dużych firm powinni mieć świadomość, że niektóre decyzje, które podejmują w ramach swojej działalności, mogą naruszać prawo i być nieetyczne.” Za pozbawionym skrupułów wykorzystaniem algorytmów i systemów „stoją konkretne, wyspecjalizowane osoby”. Ortega proponuje „coś w rodzaju nowej Przysięgi Hipokratesa dla technologów, nad którą wiele instytucji już się zastanawia”.

Prosegur opracowuje wewnętrzne regulacje i tworzy specjalny komitet ds. sztucznej inteligencji, który zajmie się kwestiami etycznymi |
Zdjęcie dzięki uprzejmości Prosegur | Autor: César Manso

Ortega szczególnie wysoko ceni jedno z tych zobowiązań etycznych, „tak zwaną Przysięgę Technokratyczną promowaną przez Uniwersytet Columbia z hiszpańskim neurobiologiem Rafaelem Yuste na czele: każdy przedsiębiorca, badacz, informatyk i profesjonalista zajmujący się neurotechnologią lub sztuczną inteligencją powinien to podpisać”. Byłaby to publiczna, „podniosła przysięga dużej wagi moralnej” i zawierałaby takie zobowiązania jak „nieszkodzenie (technologia musi być zawsze stosowana bez zamiaru wyrządzenia krzywdy), poszukiwanie dobra wspólnego, zgoda zainteresowanych, bezstronność algorytmów (które nie mogą zawierać żadnych uprzedzeń dyskryminacyjnych), przejrzystość i pełne poszanowanie godności”.

PRZEJRZYSTOŚĆ I POSZANOWANIE PRYWATNOŚCI TO CECHY, KTÓRYCH ZWYKLE WYMAGAMY OD INSTYTUCJI PUBLICZNYCH, ALE CZĘSTO ZAPOMINAMY WYMAGAĆ TEGO SAMEGO OD TYCH, KTÓRZY TWORZĄ ALGORYTMY ~ Maite López Sánchez, profesor Uniwersytetu w Barcelonie

W tą samą stronę składnia się w swojej refleksji Maite López Sánchez, profesorka Uniwersytetu w Barcelonie i koordynatorka międzyuczelnianych studiów magisterskich w zakresie sztucznej inteligencji. Jako naukowcy jesteśmy coraz bardziej świadomi, że projektowanie algorytmów i systemów sztucznej inteligencji musi w większym stopniu szanować ludzkie wartości etyczne, wyjść poza rozważanie, czy konkretne działanie jest zgodne z prawem, czy też nie aby móc szerzej ocenić zgodność z naszym systemem wartości. Wśród tego zestawu zasad López bardzo ceni sobie „przejrzystość i poszanowanie prywatności” i przypomina, że są to cechy, których zwykle wymagamy od instytucji publicznych, „ale często zapominamy o tych, którzy opracowują dla nich algorytmy”.

Imperatyw etyczny przyjęty przez główne firmy

W świecie biznesu firmy takie jak Google, Hewlett Packard czy Microsoft rozwijają w ostatnich latach własne protokoły i wewnętrzne kodeksy moralne oparte na bardzo wymagających kryteriach odpowiedzialności korporacyjnej. Dla Tima Bajarina, eksperta w dziedzinie technologii i praw konsumentów, podręczniki najlepszych praktyk łączy „chęć pójścia jeszcze dalej niż przewidują nowe ramy prawne, opracowywane w Unii Europejskiej, Stanach Zjednoczonych i Wielkiej Brytanii”. Według Bajarina wszystkie mają swój początek w realistycznym oszacowaniu „co może pójść nie tak, jeśli nie zastosujemy się do szeregu bardzo surowych wytycznych i zasad przewodnich, które przede wszystkim zmuszają nas do rozważenia, czy technologia tego typu jest naprawdę konieczna” i czy potencjalne korzyści wyraźnie przewyższają potencjalne ryzyko.

W Prosegur dysponują technologiami do automatycznego, zdalnego wykrywania użycia środków ochrony przez pracowników w środowiskach przemysłowych: kasków, rękawic, masek | Zdjęcie dzięki uprzejmości Prosegur | Autor: César Manso

Zdaniem Daniela Bastidy, Inspektora Ochrony Danych firmy Prosegur, „przed opracowaniem jakiegokolwiek systemu sztucznej inteligencji należy rozważyć, czy jest on konieczny, proporcjonalny i odpowiedni. To trzy podstawowe kryteria, którymi kieruje się jego firma, aby zagwarantować, że „wszystkie procesy innowacji technologicznych rozpoczynają się w pierwszej kolejności od refleksji etycznej”. Prosegur antycypuje nowe ramy prawne, które zostaną skonsolidowane w Europie i Hiszpanii, opracowując regulacje wewnętrzne i tworząc specjalną komisję ds. sztucznej inteligencji, w której będą reprezentowane różne działy firmy, lub zespół prawny” - mówi Bastida. We wszystkich przypadkach „osąd etyczny określi reguły gry”.

Odpowiednia ochrona danych wrażliwych 

Bastida podaje praktyczny przykład protokołów, które jego firma już stosuje: „W naszych procesach analizy algorytmów i szkolenia używamy danych syntetycznych, aby zapewnić bezpieczeństwo prywatności ludzi”. García Espinel wyjaśnia tę koncepcję: „Posiadamy technologie do automatycznego wykrywania stosowania środków ochrony osobistej, czyli elementów gwarantujących bezpieczeństwo pracowników w środowiskach przemysłowych: kasków, rękawic, masek. Aby inteligentne kamery monitoringu rozpoznały, czy wszyscy, mają na sobie pełne wyposażenie i noszą je prawidłowo, musimy „nakarmić” nasze algorytmy analizy jakościowej obrazami osób w kasku oraz bez, w rękawiczkach oraz bez, z maską dobrze i nieprawidłowo założoną. Gdybyśmy wykorzystali prawdziwe zdjęcia zebrane losowo, bez uprzedniej zgody pracowników, naruszylibyśmy prawo do prywatności osób, które się na nich pojawiają. Sięgnęliśmy więc po system do tworzenia syntetycznych obrazów z modeli 3D generowanych przez komputer”.


PRZED OPRACOWANIEM JAKIEGOKOLWIEK SYSTEMU SZTUCZNEJ INTELIGENCJI NALEŻY ROZWAŻYĆ, CZY JEST TO KONIECZNE, PROPORCJONALNE I ODPOWIEDNIE ~ Daniel Bastida, Inspektor ds. Ochrony danych firmy Prosegur

Szef ds. innowacji dodaje: „Niektóre systemy sztucznej inteligencji wymagają ograniczonej liczby rzeczywistych obrazów wyjściowych, które nazywamy danymi początkowymi, więc w takich przypadkach generujemy je, przedstawiając modeli, którzy wcześniej podpisali świadomą zgodę”. Bastida dodaje, że Prosegur bardzo poważnie traktuje zapisany w Europejskim Rozporządzeniu o Ochronie Danych zakaz generowania i przechowywania danych biometrycznych (odcisków palców, rozpoznawania twarzy, głosu, siatkówki, sposobu chodzenia, czy pisania na klawiaturze) poza wyjątkowymi sytuacjami, które tego wymagają: „W systemach odblokowujących alarmy wykorzystujących hasła i rozpoznawanie głosu zbieramy dane biometryczne, porównujemy je i natychmiast usuwamy. Działania zawsze podejmujemy tylko za wyraźną zgodą osób, których to dotyczy.”

Dla Garcíi Espinel’a „te zasoby technologiczne stanowią wykładniczy wzrost bezpieczeństwa zaangażowanych osób. Monitoring wizyjny wraz z inteligentną analizą przepływu danych pozwala wykryć rzeczy, których bez niego byśmy nie zauważyli, jest niezwykle skutecznym sposobem zwiększenia możliwości pracownika ochrony”. Nie zastępuje fizycznego kontaktu ani zdolności ludzi do interwencji, „ale pozwala im mieć plan B i plan C w dążeniu do ostatecznego celu, którym jest zagwarantowanie bezpieczeństwa”. Wisienką na torcie jest oczywiście to, że do wszystkich tych zalet dodaje się rygorystyczną analizę możliwych zagrożeń i założeń etycznych.

W stronę humanizmu technologicznego 

Dla Iñaki’ego Ortegi, który poza tym, że jest naukowcem, jest współautorem eseju Dobra technologia, wewnętrzne protokoły, podręczniki odpowiedzialnego biznesu i komisje etyczne idą w dobrym kierunku: „Profesjonaliści z całego świata muszą uznać swoją wspólną odpowiedzialność za wpływ technologii informacyjnej”. Z jego punktu widzenia „dobra technologia była jednym z wielkich odkryć czasów pandemii”.

Dostępne innowacje „są obecne i nie powinny nas niepokoić”. Jednak „niepokoi fakt, że niewłaściwe wykorzystanie dużych zbiorów danych osobowych gromadzonych dzięki nim może zaszkodzić prywatności, reputacji, a nawet godności człowieka”. Jeszcze raz należy położyć nacisk na odpowiedzialność, jaką niesie ze sobą każda wielka potęga: „W tym duchu w maju 2019 r. różni naukowcy i technolodzy opublikowali tak zwany „Wiedeński Manifest Humanizmu Cyfrowego”. Stawiają w nim na konfigurowanie technologii zgodnie z ludzkimi wartościami i potrzebami, zamiast pozwalać technologiom opartym na fałszywych interesach kształtować ludzi”.

Dział: Technologia

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE