2024-04-13 12:55:14 JPM redakcja1 K

Nauczyciele używają sztucznej inteligencji do oceniania wypracowań. Niektórzy eksperci wyrażają jednak obawy natury moralnej

Kiedy Diane Gayeski, profesor komunikacji strategicznej w Ithnaca College, otrzymuje wypracowanie od jednego z jej studentów, pewną jego część przepuszcza przez ChatGPT, prosząc urządzenie AI o przepracowanie analizy krytycznej i zasugerowanie jak można poprawić pracę.

Rejestr ChatGPT wyświetlony na ekranie laptopa. Zdjęcie: Stanislav Kogiku/SOPA Images/LightRocket/Getty Images.

„W kwestii oceniania najlepiej spojrzeć na sztuczną inteligencję jak na asystenta dydaktycznego lub naukowego, który może przejrzeć pracę jako pierwszy… i który całkiem nieźle sobie z tym radzi” - powiedziała „CNN”. Pokazuje swoim studentom informacje zwrotną z ChatGPT i w jaki sposób, narzędzie przerobiło ich pracę. „Podzielę się też tym co myślę o ich wstępie i porozmawiamy o tym” - powiedziała. Gayeski wymaga od swojej 15-osobowej klasy, by robili to samo: przepuszczali swoje prace przez ChatGPT, żeby zobaczyli, gdzie mogą się poprawić. Wyłonienie się AI przekształca edukację, prezentując prawdziwe korzyści, takie jak zautomatyzowanie niektórych zadań w celu zaoszczędzenia czasu na bardziej spersonalizowane nauczanie, ale także pewnie poważne zagrożenia, od kwestii związanych z dokładnością i plagiatem po utrzymanie integralności. Zarówno nauczyciele jak i studenci używają nowej technologii. Badanie przeprowadzone przez firmę doradczej Tyton Partners, sponsorowanej przez platformę do wykrywania plagiatu Turnitin, wykazał, że połowa studentów uczelnianych używała narzędzi AI jesienią 2023 roku. W międzyczasie, podczas gdy mniej członków wydziału używało narzędzi AI, odsetek ten wzrósł do 22% członków wydziału jesieni 2023 roku z 9% wiosny 2023 roku. Nauczyciele sięgają po narzędzia i platformy AI - takie jak ChatGPT, Writable, grammarly i EssayGrader - w celu pomocy z ocenianiem prac, napisaniem informacji zwrotnej, rozwijaniem planów lekcji i tworzeniem zadań. Używają tych rozwijających się narzędzi również do tworzenia quizów, ankiet i materiałów interaktywnych, aby podnieść poprzeczkę w stosunku do tego, czego oczekuje się w klasie. Z drugiej strony, studenci opierają się na narzędziach takich jak ChatGPT i Microsoft CoPilot - które są wbudowane w Word, PowerPoint i inne produkty. Ale podczas gdy niektóre szkoły uformowały zasady, określające w jaki sposób studenci mogą lub nie mogą używać narzędzi AI do prac domowych, wiele nie ma wytycznych dla nauczycieli. Praktyka używania AI dla pisania informacji zwrotnej lub oceniania zadań wiąże się również z kwestiami moralnymi. A rodzice i studenci którzy wydają setki tysięcy dolarów na nauczanie, mogą zacząć się zastanawiać czy nieskończona pętla informacji zwrotnej wygenerowanej przez AI i ocenionej przez AI treści jest warta czasu i pieniędzy. „Jeśli nauczyciele używają tego wyłącznie do oceniania, a studenci wyłącznie do wyprodukowania finalnego produktu, to nie zadziała” - powiedziała Gayeski.

Czas i miejsce na AI

To jak nauczyciele używają sztucznej inteligencji zależy od wielu czynników, szczególnie kiedy mówimy o ocenianiu, według Dorothy Leidner, profesor etyki biznesu na Uniwersytecie Wirginii. Jeśli testowanym materiałem w obszernej klasie to w większości wiedza deklaratywna - więc istnieje wyraźna prawda i fałsz - wtedy ocenianie przez nauczyciela używającego AI „może być nawet lepsze od oceniania przez człowieka” - powiedziała „CNN”. AI pozwoliłoby nauczycielom na szybsze i bardziej powtarzalne ocenianie prac oraz uniknięcie zmęczenia i nudy, powiedziała. Ale Leidnar zwróciła uwagę, że w przypadku mniejszych klas lub zadań z mniej definitywnymi odpowiedziami, ocenianie powinno pozostać spersonalizowane, żeby nauczyciele mogli przekazać bardziej sprecyzowaną informację zwrotną i poznać pracę ucznia, a co za tym idzie jego postępy w miarę czasu. „Nauczyciel powinien być odpowiedzialny za ocenianie, ale może w pewnym stopniu obarczyć odpowiedzialnością AI” powiedziała. Zasugerowała, żeby nauczyciele używali AI do określonych metryk - takich jak struktura, użycie języka i gramatyka - i podania wyniku w punktach. Następnie nauczyciele powinni sami ocenić prace uczniów, szukając nowości, kreatywności i głębi spostrzeżeń. 

Leslie Layne instruuje swoich uczniów, jak w najlepszy sposób używać ChatGPT, ale kwestionuje w jaki sposób niektórzy nauczyciele używają ich do oceniania prac.

Leslie Lyne, która naucza najlepszych sposobów na korzystanie z ChatGPT podczas jej warsztatów pisarskich na Uniwersytecie w Lynchburgu w Wirgrinii, powiedziała, że dostrzega zarówno korzyści jak i wady dla nauczycieli. „Używanie informacji zwrotnej, która tak naprawdę nie pochodzi ode mnie, wydaje się nieco upłycać tę relację” - powiedziała. Uważa również, że przesłanie pracy studenta do ChatGPT jest „ogromną rozterką moralną” i potencjalnym naruszeniem jego własności intelektualnej. Narzędzia AI, takie jak ChatGPT, wykorzystują takie wpisy do trenowania swoich algorytmów we wszystkim, od wzorców mowy po tworzenie zdań, do faktów i liczb. Profesor etyki Leidner zgadza się, mówiąc, że powinno być to szczególnie unikane w przypadku prac doktorskich i magisterskich, ponieważ student może mieć nadzieję na opublikowanie pracy. „Byłoby niewłaściwym wysyłać pracę do AI przed wcześniejszym poinformowaniem studentów” - powiedziała. „I być może studenci powinni wyrazić na to zgodę”. Niektórzy nauczyciele polegają na oprogramowaniu o nazwie Writable, które wykorzystuje ChatGPT do oceniania prac, ale jest „tokenizowane”, więc wypracowania nie zawierają żadnych danych osobowych i nie są udostępniane bezpośrednio systemowi. Nauczyciele wysyłają prace na platformę, która niedawno została nabyta przez firmę edukacyjną Houghton Mifflin Harcourt, która następnie zapewnia informację zwrotną dla uczniów. Inni edukatorzy, używają platform takich jak Turnitin, które oferują narzędzia do wykrywania plagiatu, aby pomóc nauczycielom rozpoznać prace napisane przez ChatGPT i inne programy AI. Ale tego typu narzędzia do wykrywania są dalekie od niezawodności; OpenAI zamknęło w zeszłym roku własne narzędzie do wykrywania sztucznej inteligencji z powodu tego, co firma nazwała „niskim wskaźnikiem dokładności”. 

Wyznaczanie standardów

Niektóre szkoły aktywnie pracują nad wytycznymi zarówno dla nauczycieli i uczniów. Alan Reid, pracownik naukowy w Centrum Badań i Reform w Edukacji (CRRE) na Uniwersytecie Johnsa Hopkinsa, powiedział, że ostatnio spędził czas pracując z edukatorami K-12, którzy używają narzędzi GPT do tworzenia spersonalizowanych uwag na świadectwach szkolnych na koniec kwartału. Ale także jak Layne, zauważył, że możliwości technologi w pisaniu wnikliwych informacji zwrotnych pozostają „limitowane”. Obecnie zasiada w komitecie na swojej uczelni który opracowuje politykę dotyczącą AI dla wykładowców i pracowników; trwają dyskusje nie tylko na temat tego, w jaki sposób nauczyciele wykorzystują sztuczną inteligencję w klasie, ale także w jaki sposób jest ona wykorzystywana przez edukatorów ogólnie. Przyznaje, że w szkołach trwają rozmowy na temat wykorzystania generatywnych narzędzi AI do tworzenia takich rzeczy, jak akta awansów i kadencji, oceny wyników i ofert pracy. Nicholas Frank, profesor nadzwyczajny filozofii na Uniwersytecie w Lynchburgu, powiedział, że uniwersytety i profesorzy muszą być zgodni w kwestii wytycznych, ale muszą pozostać ostrożni. „Istnieje wiele zagrożeń przy tworzeniu polityk dotyczących AI na tym etapie” - powiedział. Martwi się, że nadal jest za wcześnie, na zrozumienie w jaki sposób AI zostanie zintegrowane w życie codzienne. Obawia się także, że niektórzy administratorzy, którzy nie uczą w klasach, opracują politykę, która pomija szczegóły instrukcji. „To może stworzyć zagrożenie uproszczenia problemów z użyciem AI do oceniania i instruowania” - powiedział. „Złe polityki tworzą się przez uproszczenia”. Stwierdził, że na początek edukatorzy mogą zidentyfikować wyraźne nadużycia AI i rozpocząć kształtowanie polityki wokół nich. Tymczasem Leidner powiedziała, że uniwersytety mogą być na bardzo wysokim poziomie dzięki swoim wytycznym, takimi jak uczynienie przejrzystości priorytetem - aby studenci mieli prawo wiedzieć kiedy AI jest używane do sprawdzania ich prac - oraz określenie, jakie rodzaje informacji nigdy nie powinny być przesyłane lub zadawane AI. Ale powiedziała też, że uniwersytety muszą być otwarte na „regularną rewaluację jako, że technologia i jej zastosowania ciągle ewoluuje”.

Autor:
Samantha Murphy Kelly | Tłumaczenie: Mateusz Gwóźdź

Żródło:
https://www.google.com/amp/s/amp.cnn.com/cnn/2024/04/06/tech/teachers-grading-ai

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Treść wiadomości jest wymagana.