ChatGPT, a rischio il sistema di valutazione delle università americane

Nataliya Bolboka
05/04/2023
Tempo di lettura: 2 minuti
Esame

Università e collage in tutto il mondo hanno vietato l’utilizzo di ChatGPT. Dalla Francia, agli Stati Uniti, all’India, all’Australia la preoccupazione è che il programma di intelligenza artificiale venga utilizzato impropriamente per superare gli esami.

Lo scorso gennaio l’International conference on machine learning ha proibito agli autori di presentare pubblicazioni realizzate con l’ausilio di strumenti come ChatGPT. Il dipartimento dell’Istruzione di New York ne ha vietato l’utilizzo sui dispositivi e le reti delle scuole pubbliche, se non dietro la richiesta di accesso al chatbot per “per scopi di istruzione relativi all’intelligenza artificiale e alla tecnologia”. Dietro questa scelta ci sarebbe la preoccupazione sull’impatto che questi strumenti hanno sull’apprendimento e l’accuratezza, nonché sulla sicurezza delle informazioni.

Ma gli Stati Uniti non sono l’unico paese in cui è stato vietato l’utilizzo di ChatGPT. In Australia le università dell’organizzazione The group of eight hanno deciso di ritornare agli esami con carta e penna, così da evitare che vengano utilizzate queste tecnologie per superare le prove.

Il problema, infatti, si pone soprattutto negli istituti che, come quelli americani, basano tutto il sistema di valutazione su compiti scritti. “Gli esami orali sono praticamente sconosciuti, gli esami scritti sono usati nelle discipline scientifiche ma nelle discipline umanistiche e in alcune scienze sociali la valutazione si basa prevalentemente su saggi e riassunti scritti a casa”, ha osservato Giovanni Federico, professore di Storia economica alla New York University Abu Dhabi, nel suo articolo sul Foglio. Programmi del genere mettono quindi in discussione l’intero sistema di valutazione.

In base all’analisi svolta dal professore, un docente accorto sarebbe comunque in grado distinguere un elaborato realizzato da ChatGPT, almeno nella versione gratuita, ma la tecnologia continuerà a migliorare col tempo e a quel punto si tratterebbe di “una lotta impari”, fa notare Giovanni Federico.

Una soluzione potrebbe un software simile a quelli antiplagio, già utilizzati nelle università, per riconoscere testi generati da intelligenza artificiale, come GPTZero. Realizzato da uno studente di Princeton, il programma funziona, ma sembra non essere del tutto attendibile, soprattutto non abbastanza per potervi basare le valutazioni degli studenti.

Nataliya Bolboka