2025-02-10 16:34:58 JPM redakcja1 K

Dlaczego pracownicy przemycają AI do pracy

Mówi się, że wielu pracowników korzysta w pracy z niezatwierdzonej AI

Zdjęcie: Getty Images

„Łatwiej uzyskać przebaczenie niż pozwolenie” – mówi John, inżynier oprogramowania w firmie zajmującej się technologią usług finansowych. „Po prostu zajmij się tym. A jeśli później wpadniesz w kłopoty, wytłumacz się z tego”. Jest jedną z wielu osób, które korzystają w pracy z własnych narzędzi AI, bez zgody swojego działu IT (dlatego nie używamy pełnego imienia Johna). Według ankiety przeprowadzonej przez Software AG, połowa pracowników umysłowych korzysta z osobistych narzędzi AI. W przypadku niektórych dzieje się tak dlatego, że ich zespół IT nie oferuje narzędzi AI, inni zaś stwierdzili, że chcą mieć własny wybór narzędzi. Badanie definiuje pracowników biurowych jako „tych, którzy pracują głównie przy biurku lub komputerze”.

Firma Johna udostępnia GitHub Copilot do tworzenia oprogramowania wspieranego przez sztuczną inteligencję, ale pracownik woli aplikację Cursor.

„To w dużej mierze wychwalane autouzupełnianie, lecz jest bardzo dobre” – mówi. „Wypełnia 15 linijek naraz, a potem przeglądasz i mówisz: «tak, właśnie to bym napisał». To cię odciąża od pracy. Czujesz, że możesz zrobić więcej”.

Jego nieuprawnione użycie narzędzi nie stanowi naruszenia zasad, jest po prostu łatwiejsze niż narażanie się na długotrwały proces zatwierdzania, mówi. „Jestem zbyt leniwy i dobrze opłacany, żeby gonić za wydatkami” – dodaje.

John zaleca, aby firmy zachowały elastyczność w wyborze narzędzi AI. „Mówiłem ludziom w pracy, aby nie odnawiali licencji zespołowych na rok, ponieważ w ciągu trzech miesięcy wszystko się zmienia” – mówi. „Każdy będzie chciał zrobić coś innego i poczuje się ograniczany przez źle zainwestowane środki finansowe”. Niedawna wersja DeepSeek, swobodnie dostępnego modelu sztucznej inteligencji z Chin, prawdopodobnie jedynie zwiększy możliwości sztucznej inteligencji.

Peter (nie jest to jego prawdziwe imię) jest menedżerem produktu w firmie zajmującej się przechowywaniem danych, która oferuje swoim pracownikom chatbota Google Gemini AI.

Zewnętrzne narzędzia AI są niedopuszczalne, ale Peter używa ChatGPT za pośrednictwem narzędzia wyszukiwania Kagi. Odkrywa, że największa korzyść ze sztucznej inteligencji wynika z kwestionowania jego sposobu myślenia, gdy prosi chatbota o ocenę jego pomysłów z różnych perspektyw klienta.

„Sztuczna inteligencja nie tyle daje odpowiedzi, co daje partnera sparingowego” – mówi. „Jako menedżer produktu masz dużą odpowiedzialność i nie masz zbyt wielu dobrych okazji, aby otwarcie omawiać strategię. Te narzędzia pozwalają na to w nieskrępowany i nieograniczony sposób”.

Wersja 4o ChatGPT, której używa Peter, może analizować wideo. „Możesz uzyskać streszczenia filmów konkurencji i przeprowadzić całą rozmowę [za pomocą narzędzia AI] na temat poszczególnych kwestii w filmach oraz tego, w jaki sposób odpowiadają one Twoim własnym produktom”. W 10-minutowej rozmowie ChatGPT może przejrzeć materiał, którego obejrzenie zajęłoby dwie lub trzy godziny.

Pracownik szacuje, że jego zwiększona produktywność jest równoznaczna z pozyskaniem przez firmę trzeciej dodatkowej osoby pracującej za darmo.

Nie jest pewien, dlaczego firma zakazała stosowania zewnętrznych narzędzi sztucznej inteligencji. „Myślę, że to kwestia kontroli” – mówi. „Firmy chcą mieć wpływ na to, z jakich narzędzi korzystają ich pracownicy. To nowa granica w IT i chcą po prostu zachować konserwatyzm”. Korzystanie z nieautoryzowanych aplikacji AI jest czasami nazywane „sztuczną sztuczną inteligencją”. Jest to bardziej specyficzna wersja „cieni IT”, czyli sytuacji, w której ktoś korzysta z oprogramowania lub usług, których dział IT nie zatwierdził. 

Przedsiębiorstwo Harmonic Security pomaga identyfikować nieautoryzowane AI i zapobiegać niewłaściwemu wprowadzaniu danych korporacyjnych do narzędzi AI. Firma śledzi ponad 10 000 aplikacji AI i zidentyfikowała ponad 5000 z nich w użyciu. Należą do nich niestandardowe wersje ChatGPT i oprogramowanie biznesowe, które dodało funkcje AI, takie jak narzędzie komunikacyjne Slack. Niezależnie od tego, jak popularna jest nieautoryzowana sztuczna inteligencja, wiąże się ona z ryzykiem.

Nowoczesne narzędzia AI powstają w wyniku przetwarzania ogromnych ilości informacji w procesie zwanym nauką. Około 30% aplikacji zidentyfikowanych przez Harmonic Security, wykorzystuje informacje wprowadzone przez użytkownika. Oznacza to, że informacje o użytkowniku stają się częścią narzędzia AI i mogą w przyszłości zostać udostępnione innym użytkownikom.

Firmy mogą obawiać się ujawnienia ich tajemnic handlowych w wyniku odpowiedzi narzędzia AI, ale Alastair Paterson, dyrektor generalny i współzałożyciel Harmonic Security, uważa że jest to mało prawdopodobne. „Dość trudno jest uzyskać dane bezpośrednio z tych narzędzi AI” – mówi. Firmy będą jednak zaniepokojone przechowywaniem ich danych w usługach sztucznej inteligencji o których istnieniu nie wiedzą, nad którymi nie mają kontroli oraz obawiają się, że mogą być podatne na naruszenia danych.


Zdjęcie: Micaela Karina

Firmom będzie trudno walczyć z wykorzystaniem narzędzi sztucznej inteligencji, ponieważ mogą one być niezwykle przydatne, szczególnie dla młodszych pracowników.

„[AI] pozwala upchnąć pięcioletnie doświadczenie w 30 sekund poświęcone na jedno zapytanie” – mówi Simon Haighton-Williams, dyrektor generalny The Adaptavist Group, brytyjskiej grupy świadczącej usługi oprogramowania.

„Nie zastępuje to całkowicie doświadczenia, ale potrafi być budujące w ten sam sposób, w jaki posiadanie dobrej encyklopedii lub kalkulatora pozwala robić rzeczy, których nie udałoby się zrobić bez tych narzędzi”.

Co powiedziałby firmom, które odkryły, że wykorzystują "cień sztucznej inteligencji"?

„Witamy w klubie. Myślę, że prawdopodobnie każdy tak robi. Bądźcie cierpliwi i zrozumcie, czego ludzie używają i dlaczego, a także wymyślcie, jak możecie zrobić z tego użytek i zarządzać tym, zamiast wymagać zaprzestania używania. Nie chcecie pozostać w tyle jako organizacja, która nie zaadaptowała w pełni AI”.


Zdjęcie: Lauri Pitkänen

Trimble dostarcza oprogramowanie i sprzęt aby zarządzać danymi na temat stworzonego środowiska. Aby pomóc swoim pracownikom bezpiecznie korzystać ze sztucznej inteligencji, firma stworzyła Trimble Assistant. Jest to wewnętrzne narzędzie AI oparte na tych samych modelach AI, które są używane w ChatGPT.

Pracownicy mogą korzystać z Trimble Assistant przy rozwoju produktu, obsłudze klienta i badaniach rynku. Dla twórców oprogramowania firma udostępnia GitHub Copilot.

Karolina Torttila jest dyrektorem ds. sztucznej inteligencji w Trimble. „Zachęcam wszystkich do wypróbowania wszelkiego rodzaju narzędzi w życiu osobistym, ale pamiętajcie, że życie zawodowe to inna przestrzeń i istnieją tutaj pewne zabezpieczenia i względy”, mówi.Firma zachęca pracowników do odkrywania w Internecie nowych modeli AI i aplikacji.

„To prowadzi nas do umiejętności, którą wszyscy musimy rozwijać: zrozumienia, czym są dane wrażliwe. Są miejsca, w których nie umieszcza się swoich danych medycznych i trzeba mieć możliwość dokonania tego typu oceny [również w przypadku danych służbowych]” - mówi.

Jej zdaniem doświadczenie pracowników w korzystaniu ze sztucznej inteligencji w domu i do użytku osobistego może kształtować politykę firmy w miarę ewolucji narzędzi AI.

Należy prowadzić „ciągły dialog na temat tego, jakie narzędzia służą nam najlepiej” – dodaje.

Dział: Technologia

Autor:
Sean McManus | Tłumaczenie Andrzej Wachnicki — praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://www.bbc.com/news/articles/cn7rx05xg2go

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się