ChatGPT-4 oszukał profesorów w ślepym teście i okazał się lepszy od studentów. Po tym eksperymencie ocenianie musi ulec zmianie
W ślepej próbie profesorowie nie zorientowali się, że oceniają pracę maszyny
Spis treści
- ChatGPT-4 lepszy od studentów - eksperyment
- Zagrożona jest rzetelność oceniania - wnioski z badania
- „Oduczanie studentów” - przyszłość bezpieczeństwa edukacyjnego
ChatGPT-4 lepszy od studentów - eksperyment
Naukowcy z University of Reading przeprowadzili badanie, którego wyniki zaskoczyły świat akademicki. Studenci otrzymali zdalne zadania egzaminacyjne, które mieli wykonać w ramach pracy domowej i przesłać online. Autorzy eksperymentu stworzyli fikcyjne tożsamości studentów i przesłali odpowiedzi wygenerowane przez ChatGPT-4, aby sprawdzić, czy profesorowie będą w stanie wykryć oszustwo. Egzaminatorzy nie byli świadomi, że biorą udział w badaniu i sprawdzali prace zgodnie ze standardowymi praktykami. Spośród 33 odpowiedzi przygotowanych przez AI, tylko jedna została zakwestionowana przez egzaminatorów. Co więcej, większość odpowiedzi AI uzyskała wyższe oceny niż prace prawdziwych studentów.
- Jak oceniać prace, które mogą być tworzone przez AI? ChatGPT w szkole
- Korzystanie z aplikacji typu ChatGPT w środowisku naukowym. Na jakich zasadach?
Zagrożona jest rzetelność oceniania - wnioski z badania
Wyniki tego eksperymentu wskazują na ogromny potencjał sztucznej inteligencji do oszukiwania systemu edukacyjnego. Badania potwierdzają, że AI, takie jak ChatGPT, przechodzą „test Turinga” – czyli stały się na tyle zaawansowane, że potrafią imitować ludzkie myślenie i komunikację w sposób nierozpoznawalny nawet dla doświadczonych oceniających. Dr Peter Scarfe, jeden z autorów badania, podkreśla, że zrozumienie, jak AI wpłynie na rzetelność ocen edukacyjnych, ma międzynarodowe znaczenie.
W obliczu tych danych oczywiste jest, że sektory edukacyjne muszą ewoluować, aby przeciwdziałać potencjalnym oszustwom z użyciem AI. Uniwersytet w Reading planuje zmiany w sposobie oceniania, w tym wprowadzenie zadań praktycznych i związanych z miejscem pracy, które będą trudniejsze do oszukania przez AI. Prof. Elizabeth McCrum, prorektor ds. edukacji, zaznacza, że niektóre zadania będą wspierać studentów w krytycznym i etycznym korzystaniu z AI, podczas gdy inne będą wykonywane bez jej użycia.
- Bezpłatne szkolenia z AI i ChatGPT dla szkół. Kto może wziąć udział?
- AI to szansa czy zagrożenie dla edukacji? Ekspert: „Stoimy u progu wielkich zmian”
„Oduczanie studentów” - przyszłość bezpieczeństwa edukacyjnego
Eksperci, tacy jak prof. Karen Yeung z University of Birmingham, ostrzegają, że dostępność generatywnej sztucznej inteligencji może prowadzić nie tylko do łatwego oszukiwania w egzaminach domowych, ale mieć dużo poważniejsze skutki. Yeung zauważa, że może to skutkować „oduczaniem” studentów, którzy staną się zbyt zależni od technologii i zatracą swoje naturalne zdolności do wykonywania intelektualnych zdolności. Pozbawieni narzędzia mogą nie być w stanie samemu pisać i analizować. Dlatego też, aby zapobiec kryzysowi zaufania społecznego, konieczne jest opracowanie nowych metod oceniania i nauczania, które uwzględniają dynamiczny rozwój AI.
Badanie przeprowadzone przez University of Reading ukazuje, jak szybko rozwija się technologia AI i jakie stawia wyzwania przed tradycyjnymi metodami edukacji. Aby zachować rzetelność akademicką i odpowiednio przygotować studentów uniwersytety muszą dostosować swoje metody oceniania i nauczania. Obejmuje to zarówno krytyczne wykorzystanie AI, jak i opracowanie bardziej praktycznych form egzaminów, które lepiej odzwierciedlają rzeczywiste umiejętności i wiedzę studentów.
- Studenci wykorzystali ChatGPT i uczelnia unieważniła ich prace. Oblał cały rocznik
- Sztuczna inteligencja pomoże przy pisaniu prac naukowych. W jaki sposób?
Źródła: University of Reading
Powiedz nam, co o tym myślisz i zostaw komentarz.
Szanujemy każde zdanie i zachęcamy do dyskusji. Pamiętaj tylko, żeby nikogo nie obrażać!
Jesteśmy na Google News. Dołącz do nas i śledź Strefę Edukacji codziennie.
Obserwuj StrefaEdukacji.pl!