Wsparcie nas

Sztuczna inteligencja zmieniła egzaminy uniwersyteckie w "nierozwiązywalny problem"

Generatywna sztuczna inteligencja podważyła tradycyjne podejścia do egzaminów i uczyniła system oceniania wiedzy na uczelniach nierozwiązywalnym problemem, ostrzegają naukowcy.

Sztuczna inteligencja zmieniła egzaminy uniwersyteckie w "nierozwiązywalny problem"

Generatywna sztuczna inteligencja podważyła tradycyjne podejścia do egzaminów i uczyniła system oceniania wiedzy na uczelniach nierozwiązywalnym problemem, ostrzegają naukowcy.

Artykuł opublikowany w czasopiśmie Assessment & Evaluation in Higher Education opisuje, jak narzędzia generatywne takie jak ChatGPT podważyły tradycyjne metody oceny wiedzy na uczelniach. Według autorów, egzaminy stały się «wicked problem» — złożonym zadaniem bez ostatecznego rozwiązania.

Naukowcy przepytali 20 wykładowców dużego australijskiego uniwersytetu i zidentyfikowali powszechne poczucie zagubienia: wykładowcy są przeciążeni, nie widzą «właściwego» wyjścia i przyznają, że każda próba przeprowadzenia egzaminów bez AI tworzy nowe komplikacje. Niektórzy pedagodzy postrzegają AI jako niezbędne narzędzie zawodowe, inni — jako formę oszustwa.

Wykładowcy opowiadają o trudnych kompromisach. Próba łączenia zadań z dozwoloną AI i bez niej okazała się «koszmarem», podwajającym obciążenie. Zaostrzone zadania często sprawdzają nie kreatywność, lecz jedynie «podporządkowanie regułom». Egzaminy ustne, których trudniej nadużyć przy pomocy ChatGPT, uznano za niemożliwe do przeprowadzenia w dużych grupach.

W artykule dla The Conversation autorzy podkreślili: «wicked problems» nie mają dobrych i złych rozwiązań — każde nowe rozwiązanie pociąga za sobą nieprzewidziane konsekwencje. Zamiast szukać «srebrnej kuli», autorzy proponują uniwersytetom uznanie nieuchronności kompromisów i ciągłe rewidowanie formatów oceniania.

W praktyce wykładowcy próbują hybrydowych podejść: prace pisane ręcznie dla wychwycenia «własnego głosu» studenta, prezentacje ustne, spersonalizowane zadania. Niektórzy wykorzystują AI do rutynowych zadań — tworzenia planów i testów — aby wygospodarować czas na pracę ze studentami. Inni przeciwnie — zakazują AI na pierwszych latach studiów, obawiając się fałszywych cytatów i szablonowych tekstów.

Eksperci spoza uniwersytetów uważają, że chodzi nie tylko o ściąganie. Ekonomista Tyler Cowen zauważa: AI obnażyła słabe punkty systemu, gdzie wiele opierało się na pracach domowych i testach łatwych do sprawdzenia. Współzałożyciel LinkedIn Reid Hoffman przewiduje, że studenci powinni przygotować się do nowej generacji egzaminów — od rozmów ustnych po testy, gdzie sama AI stanie się egzaminatorem.

Czytaj także
CEO Google twierdzi, że dzięki vibe codingowi tworzenie oprogramowania znowu sprawia przyjemność
CEO Google twierdzi, że dzięki vibe codingowi tworzenie oprogramowania znowu sprawia przyjemność
CEO Google twierdzi, że dzięki vibe codingowi tworzenie oprogramowania znowu sprawia przyjemność
Współzałożyciel Anthropic:
Współzałożyciel Anthropic: "AI to młotek, który nagle zrozumiał, że jest młotkiem"
Współzałożyciel Anthropic: "AI to młotek, który nagle zrozumiał, że jest młotkiem"
Bot AI został kryptomilionerem i domaga się uznania go za człowieka
Bot AI został kryptomilionerem i domaga się uznania go za człowieka
Bot AI został kryptomilionerem i domaga się uznania go za człowieka
Profesor informatyki mówi, że obecnie wielu ludzi ma problem ze znalezieniem pracy, a w branży dzieje się coś dziwnego
Profesor informatyki mówi, że obecnie wielu ludzi ma problem ze znalezieniem pracy, a w branży dzieje się coś dziwnego
Profesor informatyki mówi, że obecnie wielu ludzi ma problem ze znalezieniem pracy, a w branży dzieje się coś dziwnego

Chcesz przekazać ważne wydarzenie? Napisz do Telegram-bota

Główne wydarzenia i przydatne linki w naszym kanale Telegram