Chatboty jako terapeuci - nie bez ryzyka
Aplikacje opieki zdrowotnej, które z pomocą sztucznej inteligencji obiecują ulgę w problemach ze zdrowiem psychicznym, szybko się rozwijają. Zalicza się je do kategorii opieki zdrowotnej, wrażliwi użytkownicy nie są chronieni przez niedawno przyjęte prawo Unii Europejskiej dotyczące sztucznej inteligencji.
Aplikacja nigdy całkowicie nie zastąpi spotkania z człowiekiem, lecz czasem może być efektownym dopełnieniem. Obraz jest zaaranżowany. Zdjęcie: Johan Persson
Wiele z tych osób, które używają takich aplikacji szukają pomocy. Dając im rady muszą one być wykwalifikowane, mówi Petra Müllerová, doktorantka w dziedzinie prawa medycznego na Uniwersytecie w Lund, który bada nowe technologie e-zdrowia i ich regulacje na poziomie Unii Europejskiej. Aplikacje zdrowotne znajdują się w prawnej szarej strefie, dlatego, że są kategoryzowane jako pomagające zdrowieć. Są one regulowane przez UE jako produkty technologii medycznej. Wielu producentów twierdzi natomiast, że poświęcają się promocji zdrowia, które nie jest tak ściśle regulowane. Wymaga ono certyfikacji, która kosztuje dużo pieniędzy i stawia wysokie wymogi przy ochronie danych osobowych i opieki opartej na dowodach, mówi Petra Müllerová. To dlatego tak mała część aplikacji jest certyfikowana. Dobrze, że mamy nowe rozporządzenie dotyczące sztucznej inteligencji, które dotyczy części aplikacji istniejących na rynku. Większość znajduje się w szarej strefie i udaje, że nie skupia się na medycznym celu, mówi Petra Müllerová.
Trudno kontrolować
Wiele cierpiących na problemy ze zdrowiem psychicznym wybiera pobranie aplikacji, zamiast szukać opieki medycznej lub traktuje je jako dopełnienie kontaktów medycznych. Nieobecność w tych aplikacjach wykwalifikowanych lekarzy, jak i pomocy opartej na dowodach, jest według Petry Müllerovej bardzo problematyczne. Brakuje także transparentności, która dotyczy jakiego typu sztuczna inteligencja została użyta w aplikacji. Osoby cierpiące na problemy związane ze zdrowiem psychicznym w wielu państwach muszą czekać miesiącami na pomoc, a podczas czekania na lekarza, może pobiorą aplikację bazując na cenie i liczbie gwiazdek. Jeśli cierpisz na problemy związane ze zdrowiem psychicznym i otrzymasz niewykwalifikowane porady, może to mieć bardzo negatywne konsekwencje, mówi Petra Müllerová. Niektórzy nawet korzystają z tego, zamiast szukać pomocy, ponieważ jest wygodniej rozmawiać ze sztuczną inteligencją.W obecnej sytuacji rynek jest całkowicie nieregulowany, jeśli dotyczy to aplikacji zdrowotnych. Lecz nawet jeśli będą regulowane ciężko będzie je przestrzegać, - twierdzi Petra Müllerová. Mamy około 70 000 aplikacji, które dotyczą zdrowia psychicznego w UE. Nawet jeśli będą klasyfikowane, kto będzie je kontrolował? Już jest to niemożliwe, aby pilnować, czy podążają za RODO. Ciężko uzyskać kontrolę w aplikacjach, lecz istnieje inicjatywa, która zaprowadzi porządek w nieporządku. Przykładem w krajach skandynawskich jest katalog bezpiecznych aplikacji zdrowotnych opracowanych przez NordDEC (Nordic Digital Health Evalutation Criteria).
Udawanie człowieka
W praktyce każdy może stworzyć aplikację zdrowotną, która obiecuje ulgę przy lęku lub depresji. Lecz niektóre z nich oferują uspokajające pluskanie, a inne działają jako modele sztucznej inteligencji, z którymi możesz rozmawiać. Petra Müllerová sama spróbowała rozmawiać z takim modelem w wybranych aplikacjach dostępnych na rynku. Jedną rzecz jaką zauważyła to to, że próbują one jawić się jako ludzie. Spytała się na przykład jak się czuje, a model odpowiedział, że miał dobry dzień. Nie posiadają swoich uczuć czy opinii. Producenci są zobowiązani, aby poinformować użytkowników, że ci mają do czynienia ze sztuczną inteligencją, a nie człowiekiem. Dlatego na początku jest zastrzeżenie: „Nazywam się X i jestem sztuczną inteligencją. Będę twoim przewodnikiem.” Po tym mogą udawać człowieka. Jest to efektywne - użytkownik kontynuuje korzystanie z aplikacji, gdyż stworzył relację ze swoim modelem sztucznej inteligencji. Jest to jednak wysoce nieetyczne w związku z zaleceniami WHO.
„Użytkownik zawsze powinien wybrać aplikację, która została stworzona przez personel opieki medycznej, którzy chronią jego dane i mają etyczne podejście”
Kiedy Petra Müllerová używała kilku aplikacji symulowała użytkownika, który przejawiał myśli samobójcze - czyli rodzaj „najgorszego scenariusza”. W tym przypadku model sztucznej inteligencji powinien zidentyfikować to jako poważny problem i zachęcić do szukania pomocy pod numerem 112. Podejmując próbę, spytał się mnie, czy nie chce posłuchać muzyki do medytacji. Aplikacje mogą być dobrym uzupełnieniem do pomocy, jaką daje opieka medyczna, twierdzi Petra Müllerová, lecz nie mogą być jedynym rozwiązaniem. Użytkownik zawsze powinien wybrać aplikację, która została stworzona przez personel służby zdrowia, którzy chronią jego dane i mają etyczne podejście.
Dział: Technologia
Autor:
Ellen Albertsdóttir | Tłumaczenie: Paulina Wilczek - praktykantka fundacji: https://fundacjaglosmlodych.org/praktyki/
Źródło:
https://www.lu.se/artikel/chattbotar-som-terapeuter-inte-riskfritt