16.06.2025 JPM Redakcja

AI nie zastąpi edukacji – chyba, że na to pozwolimy

Podczas gdy ceremonie wręczania dyplomów niosą za sobą obietnicę nowego pokolenia absolwentów, bez odpowiedzi pozostaje jedno pytanie: czy AI sprawi, że ich edukacja stanie się bezwartościowa?

Zdjęcie: Tingting Ji/Getty Images

Tak uważa wielu prezesów. Opisują oni przyszłość, w której AI zastępuje inżynierów, lekarzy i nauczycieli. Prezes firmy Meta Mark Zuckerberg podzielił się niedawno swoją opinią, według której AI zastąpi zatrudnionych w firmie średniego szczebla inżynierów odpowiedzialnych za pisanie kodu komputerowego. Jensen Huang z NVIDII stwierdził nawet, że kodowanie samo w sobie jest już na wymarciu. O ile Bill Gates przyznaje, że prędkość rozwoju sztucznej inteligencji jest „błyskawiczna i nawet trochę straszna”, to twierdzi też, że AI może uczynić zaawansowaną wiedzę dostępną dla wszystkich. On także widzi świat, w którym AI zastępuje koderów, lekarzy i nauczycieli poprzez dostarczanie wysokich jakości darmowych porad medycznych i edukacji.

Pomimo wszechobecnej ekscytacji, AI nie jest w stanie samodzielnie „myśleć” lub działać bez ludzkiej ingerencji. Przynajmniej na razie. Kwestia tego, czy AI doprowadzi do podniesienia poziomu edukacji czy też zawęży ludzkie zrozumienie zależna jest od jednej, niezłomnie ważnej decyzji: Czy pozwolimy AI tylko na przewidywanie schematów? Czy też będziemy wymagać od niej wyjaśnienia, usprawiedliwienia i zrozumienia praw, jakimi rządzi się nasz świat? AI potrzebuje człowieka, nie tylko w kwestii nadzoru generowanych treści, ale także wdrażania naukowych barier, które zapewnią AI odpowiedni kierunek, mocny fundament i możliwość interpretacji.

Fizyk Alan Sokal porównał ostatnio czatboty AI z umiarkowanie dobrym studentem zdającym egzamin ustny. „Kiedy boty znają odpowiedź, to ci ją podadzą, ale jeśli jej nie wiedzą, to są bardzo dobre w wymyślaniu bzdur”, powiedział w trakcie wydarzenia na Uniwersytecie Pensylwanii. Tak więc o ile użytkownicy nie są rozeznani w danym temacie, to według Sokala nie będą w stanie zauważyć owych „bzdur”. Uważam to za kwintesencję „wiedzy” AI. Naśladuje zrozumienie poprzez przewidywanie sekwencji słów, ale brakuje mu ugruntowania koncepcyjnego.

Dlatego też „kreatywne” systemy AI słabo sobie radzą z odróżnianiem prawdy o fałszu; pojawiły się debaty, czy wielkie modele językowe AI są w rzeczywistości pojąć niuanse kulturowe. Kiedy nauczyciele wyrażają obawy o to, czy „nauczyciele AI” mogą negatywnie wpłynąć na zdolności rozumienia krytycznego studentów, albo kiedy lekarze obawiają się błędnych diagnoz wydanych przez algorytm, zwracają oni uwagę na tę samą wadę: uczenie maszynowe jest świetne w rozpoznawaniu sekwencji, ale nie posiada gruntowej wiedzy zrodzonej z systematycznej nauki i ludzkiego doświadczenia.

To właśnie w tej sferze drogę ku lepszemu oferuje rosnący ruch wśród branży AI. Kładzie on nacisk na wdrożenie ludzkiej wiedzy w systemy maszynowego uczenia. Przykładem tego są tu PINN-y (Physics-Informed Neural Networks, czy też oparte na fizyce sieci neuronowe) i MINN-y (Mechanistically Informed Neural Networks, czyli oparte na mechanizmie sieci neuronowe). Nazwy brzmią może bardzo technicznie, ale stojąca za nimi idea jest prosta: AI staje się lepsze, gdy trzyma się praw; nieważne, czy to są prawa fizyki, układów biologicznych czy dynamik społecznych. Oznacza to, że ludzie wciąż są potrzebni – nie tylko do korzystania z wiedzy, ale i tworzenia jej. AI działa najlepiej, gdy uczy się od nas.

Dostrzegam to w swojej własnej pracy z MINN-ami. Zamiast pozwalać algorytmowi na odgadywanie najlepszych dopasowań w oparciu na istniejące już dane, programujemy je, aby trzymały się one ustalonych reguł naukowych. Na przykład weźmy rodzinną hodowlę lawendy w stanie Indiana. W takim biznesie okres rozkwitu jest kluczowy. Zebranie plonów zbyt wcześnie lub zbyt późno redukuje działanie olejków eterycznych i zyski. AI może tracić czas na przeczesywanie nieistotnych wzorców. MINN zaczyna jednak od biologicznych aspektów rośliny. Korzysta z równań łączących ze sobą temperaturę, oświetlenie, mróz i poziom nawodnienia, aby stworzyć z nich finansowo korzystne przewidywania. Działa jednak tylko wtedy, gdy rozumie jak działa fizyka, chemia i biologia. Ta wiedza pochodzi z nauki, którą rozwijają ludzie.

Wyobraźcie sobie wykorzystanie tego podejścia w wykrywaniu raka: guzy piersi wydzielają ciepło ze względu na powiększony obieg krwi i metabolizm, a AI może być w stanie zanalizować tysiące obrazów termowizyjnych, aby zidentyfikować obecność guzów w oparciu jedynie na wzorcach w danych. Jednakże MINN-y pokroju tego niedawno stworzonego przez badaczy w Rochester Institute of Technology korzystają z danych na temat temperatury powierzchni ciała i łączą je z prawami biologicznego przewodnictwa cieplnego wdrożonymi bezpośrednio w model. Oznacza to, że zamiast zgadywania, MINN ten rozumie jak przemieszcza się ciepło i jest w stanie zidentyfikować co jest nie tak, co jest tego powodem i gdzie dokładnie się znajduje się problem. Wszystko to dzięki użyciu praw fizyki związanych z przepływem ciepła przez tkankę. W jednym przypadku MINN był w stanie odgadnąć lokalizację guza w granicy błędu zaledwie kilku milimetrów, opierając się tylko na nieprawidłowościach w sygnaturze cieplnej ciała spowodowanych przez raka.

Morał z tego jest prosty: ludzie nadal są niezbędni. Wraz z wzrostem rozwoju AI, naszą rolą nie jest zniknięcie, a raczej adaptacja. Ludzie muszą wytykać „bzdury” w treściach AI, kiedy algorytm wygeneruje coś dziwnego, stronniczego albo błędnego. To nie tylko słabość AI, ale i największy atut ludzi. Oznacza to, że nasza wiedza także musi się rozwinąć, abyśmy byli w stanie ukierunkowywać technologię, regulować ją i upewniać się, że robi to co chcemy aby robiła, a przy tym pomagać ludziom. Prawdziwym zagrożeniem nie jest to, że AI staje się mądrzejsze. Zagrożeniem jest to, że możemy przestać korzystać z własnej inteligencji. Jeśli będziemy traktować AI jak wyrocznię, to ryzykujemy zanik umiejętności kwestionowania, rozumowania i dostrzegania bezsensów. Przyszłość na szczęście nie musi tak wyglądać.

Moglibyśmy stworzyć systemy, które są przejrzyste, zdolne do interpretacji i ugruntowane w zebranej dotychczas ludzkiej wiedzy z zakresu nauki, etyki i kultury. Prawodawcy mogą ufundować badania nad możliwą do interpretacji AI. Uniwersytety mogą uczyć studentów łączyć wiedzę z danych dziedzin z umiejętnościami technicznymi. Deweloperzy mogą posłużyć się w pracy strukturami pokroju MINN-ów i PINN-ów, które do działania wymagają modelów opartych na rzeczywistości. Zaś my wszyscy – użytkownicy, wyborcy, obywatele – możemy wymagać od AI oddania nauce i obiektywnej prawdzie, a nie tylko korelacjom.

Po ponad dekadzie uczenia studentów o statystykach i modelach naukowych, obecnie skupiam się na pomaganiu studentom w zrozumieniu jak algorytmy działają „od kuchni” poprzez nauczenie się systemów samych w sobie zamiast korzystania z nich na ślepo. Moim celem jest zwiększenie przysposobienia czytelniczego w połączonych ze sobą językach matematyki, nauki i kodowania. Takie podejście jest dziś bardzo ważne. Nie potrzebujemy większej liczby użytkowników klikających „wygeneruj” w czarnoskrzynkowych modelach. Potrzebujemy ludzi, którzy są w stanie zrozumieć logikę, matematykę i kod AI, a przy tym wyłapać jakiekolwiek produkowane przez nie „bzdury”.

AI nie unieważni edukacji ani nie zastąpi ludzi. Ludzie mogą jednak zastąpić siebie samych jeśli zapomną jak myśleć niezależnie i dlaczego nauka oraz głębokie zrozumienie mają znaczenie. Kwestią sporną nie jest odrzucenie czy akceptacja AI, a to, czy pozostaniemy wystarczająco wyedukowani, aby być w stanie nią kierować.

Dział: Technologia

Autor:
Erik Otárola-Castillo | Tłumaczenie Karol Rogoziński - praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://time.com/7291558/ai-cant-replace-education/

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Treść wiadomości jest wymagana.