L’impatto dell’IA sulla frode accademica

Tempo di lettura stimato: 16 minuti
È ormai necessario ripensare il concetto di integrità accademica e i metodi sino ad ora utilizzati per garantirla. Dal Dossier del numero 25 de La ricerca, “Uomini e bot”

La disonestà accademica è da tempo riconosciuta come un «problema ricorrente» nel contesto della valutazione accademica1, con casi di frode «scandalosa» che spesso vengono sospettati o scoperti2. Supportato dalla tecnologia, negli ultimi decenni questo fenomeno ha assunto diverse forme, presentando nuove sfide etiche. Ma definire con precisione cosa costituisce una frode può rivelarsi una sfida complessa, dato che le politiche istituzionali mostrano notevoli variazioni riguardo alle tecnologie ammissibili3.

Ad esempio si è dibattuto sull’uso da parte degli studenti dei servizi online di correzione grammaticale4 e strumenti di editing come Grammarly sono stati considerati in alcuni contesti come una possibile fonte di indebito vantaggio nella produzione di elaborati. Ciò nonostante, negli ultimi anni, gli strumenti offerti da Grammarly sono diventati parte integrante delle funzionalità standard di molti programmi di elaborazione testi e persino di motori di ricerca.

Allo stesso modo, solo pochi decenni fa, l’utilizzo delle calcolatrici durante gli esami in classe era considerato una frode5, poiché si riteneva che alterasse l’esperienza educativa e compromettesse una valutazione accurata. Analogamente, gli iPad sono stati ritenuti potenzialmente dannosi, in quanto si temeva che potessero minacciare l’interazione in classe6.

Con la crescente aggiunta dei sistemi di intelligenza artificiale in diverse applicazioni, come motori di ricerca, strumenti di progettazione e produzione di documenti, la questione dell’integrità accademica diventa sempre più urgente e richiede definizioni e soluzioni più precise rispetto a quelle attualmente disponibili.

Ecco alcuni esempi che illustrano come i sistemi generativi basati sull’intelligenza artificiale vengano sfruttati in modo non etico in situazioni di frode accademica già conosciute:

  1. Errata attribuzione del merito

È ben noto come l’assegnazione inappropriata di co-paternità di un testo per ragioni estranee ai meriti effettivi sia un fenomeno diffuso tra gli accademici. In diversi campi di ricerca, la pratica della co-paternità “fantasma” o “onoraria” genera apprensione tra i responsabili delle ricerche e gli editori7. Spesso, una persona viene inclusa come autore per ragioni politiche, per favorire la sua carriera accademica o in generale per motivi estranei al suo effettivo contributo alla ricerca.

Sta emergendo in modo sempre più evidente l’importanza di promuovere una maggiore trasparenza e di istituire linee guida più chiare8, specialmente considerando come le attribuzioni improprie possano perpetuare situazioni di discriminazione, per esempio rafforzando la disparità di genere nelle carriere universitarie9.

L’utilizzo di sistemi come ChatGPT e Bard [Gemini] come co-autori di un testo può peggiorare notevolmente questo problema, in primo luogo perché vi è il rischio che le informazioni o i risultati generati siano accettati come veritieri senza un’accurata verifica delle fonti e delle ragioni che ne attestano l’affidabilità10.

  1. Impersonificazione

Tra le varie forme di frode accademica rientra anche l’impersonificazione, ossia la pratica per cui professionisti retribuiti o abili dilettanti completano compiti o sostengono esami al posto degli studenti. In passato era un’eventualità relativamente rara11, ma oggi è diventato un problema significativo per le università che offrono corsi online. Infatti, ChatGPT ha la capacità di simulare le caratteristiche vocali e lo stile di scrittura delle persone. In altre parole, può generare testi o risposte in modo che sembrino scritti o espressi da un individuo specifico, imitandone il modo di scrivere o di esprimersi verbalmente12.

  1. Servizi a pagamento

Già prima che ChatGPT iniziasse a fornire materiali personalizzati agli studenti, diverse aziende e servizi on line vendevano documenti accademici come saggi, ricerche, compiti e tesi, che gli studenti presentavano come loro13. Erano diffuse anche pratiche più informali di condivisione di documenti accademici, spesso tramite associazioni studentesche e social media.

Oggi gli output generati da ChatGPT e altre applicazioni basate sull’IA rappresentano una sfida per questi servizi a pagamento. Una delle principali funzioni di ChatGPT, infatti, è la generazione di contenuti e la sua capacità di adattarli a vari compiti ed esercizi14, il che potrebbe rendere obsoleti i servizi di frode a pagamento. Attualmente, l’utilizzo di ChatGPT e Bard è quasi sempre economico o persino gratuito, ma in un futuro prossimo potrebbe diventare finanziariamente inaccessibili per alcune persone, sollevando questioni etiche legate alle disparità delle risorse.

Una prospettiva di collaborazione

Un approccio alternativo può essere considerare le sfide legate all’utilizzo di ChatGPT e Bard come opportunità di collaborazione. Piuttosto che trattare queste tecnologie come semplici fonti di informazioni, possiamo riconoscerle come partner attivi e reattivi nella creazione di contenuti accademici.

Spinge in questa direzione l’aumento della complessità nella vita professionale e nella società, che rende necessario preparare gli studenti alla collaborazione produttiva: devono imparare a comunicare in modo efficace, condividere idee, lavorare in gruppo e utilizzare le risorse disponibili, compresa l’IA, per affrontare sfide complesse. Questa preparazione è cruciale per affrontare le sfide del mondo reale e sfruttare le opportunità future, sia sul piano professionale sia nella partecipazione alla vita della comunità15.

C’è un rischio connesso a questo approccio, e cioè che gli studenti trascurino lo sviluppo di competenze fondamentali come la scrittura per concentrarsi principalmente sulla modifica e il perfezionamento delle risposte generate dall’IA in modo da farle sembrare il frutto del loro lavoro. Per evitare questo rischio è fondamentale promuovere una collaborazione riflessiva e consapevole tra esseri umani e IA.

Questa strategia dovrebbe includere la corretta attribuzione del contributo a un lavoro scolastico, cosa tutt’altro che facile, specialmente quando autori umani e tecnologie di IA creano insieme contenuti. È importante che gli insegnanti sviluppino domande e prompt specifici per ciascuna disciplina accademica, in modo che gli studenti possano comprendere appieno l’interazione tra l’IA e il loro contributo intellettuale.

Gli strumenti di rilevazione delle frodi basati sull’IA non dovrebbero essere utilizzati esclusivamente per riconoscere atti di plagio, ma impiegati come strumenti di supporto nei processi di riflessione degli studenti. Identificare chi e in che misura ha partecipato alla creazione di un lavoro accademico dovrebbe spingere i ragazzi a riflettere sull’importanza di attribuire i contributi in modo equo e corretto, promuovendo una collaborazione etica e responsabile tra gli esseri umani e l’intelligenza artificiale.

 

I sistemi di rilevamento delle frodi

Nel campo del rilevamento del plagio stanno emergendo diverse soluzioni mirate a fronteggiare le preoccupazioni legate all’uso di ChatGPT e tecnologie simili. Ad esempio, il software Turnitin, utilizzato da 62 milioni di studenti in tutto il mondo, è stato recentemente aggiornato includendo funzionalità utili a rilevare e contrassegnare i contenuti generati da ChatGPT16, anche se i dettagli precisi di tali funzionalità non sono stati ancora rilasciati. Altre tecnologie anti-plagio (di cui parleremo più avanti) richiederanno funzionalità di sistema aggiuntive o marcature specifiche, cosa che renderà necessaria una collaborazione continua tra gli sviluppatori di sistemi di intelligenza artificiale generativa e i fornitori di sistemi anti-plagio.

Di seguito alcune delle strategie per rilevare l’uso di ChatGPT nelle produzioni accademiche.

Filigrane sui materiali

OpenAI sta attualmente sviluppando strategie per applicare filigrane (marchi o simboli identificativi) ai contenuti generati da ChatGPT. L’obiettivo è consentire l’identificazione di tali contenuti anche se subiscono successive modifiche17. È importante notare che non tutti i ricercatori sono convinti che questa soluzione sia efficace, poiché ritengono che potrebbe essere aggirata in vari modi. Alcuni esperti sottolineano che potrebbe essere difficile creare filigrane che rimangano rilevabili anche in presenza di modifiche sostanziali del contenuto18.

Utilizzo di ChatGPT

ChatGPT e altri sistemi di intelligenza artificiale generativa possono spesso identificare i loro stessi contenuti attraverso diversi metodi. Khalil ed Er19 hanno proposto un approccio in due fasi per il rilevamento del plagio: nella prima fase si accerta l’origine del contenuto, ovvero se il materiale in questione è stato generato da ChatGPT o da un’altra fonte. Nella seconda, si effettua un controllo di somiglianza per valutare quanto il contenuto sia simile a modelli noti o precedenti generati da ChatGPT.

Joe Biden in pigiama. Immagine creata con Midjourney.

Misure della perplexity e della burstiness

Stanno emergendo strumenti, come GPTZero, in grado di esaminare la casualità e la complessità di un testo20. Un’unità di misura è la perplexity (neologismo nato per estensione da Perplexity Ai, un motore di ricerca alimentato dall’intelligenza artificiale), che indica quanto un modello linguistico sia in grado di fare previsioni accurate su un campione di testo. Se è bassa significa che il testo è facile da predire e che quindi molto probabilmente è stato generato da una macchina. Gli esseri umani sono più imprevedibili e tendono a scrivere testi con una perplexity più alta.

GPTZero confronta anche la burstiness, ossia il livello di diversità nella struttura dei periodi. Un software basato su IA tende a scrivere frasi di lunghezza e di intensità uniformi, mentre l’uomo è in grado di accostare frasi più lineari e semplici a frasi più complesse e articolate. Tuttavia, questi strumenti sono tutt’altro che infallibili.

Analisi delle variazioni in un testo

È possibile chiedere agli studenti di conservare tutte le versioni di un documento, cioè ogni modifica e revisione apportate durante il processo di creazione. E questo può essere un metodo efficace per individuare la presenza o il contributo di sistemi di intelligenza artificiale nella stesura di un documento. Piattaforme come Google Docs o Microsoft Word offrono una funzione di “cronologia” che tiene traccia di tutte le modifiche apportate a un testo.

Riprogettazione delle attività

Per affrontare alcune sfide legate all’uso dell’IA nell’istruzione è possibile riformulare le attività in modo da rendere evidente l’impiego di ChatGPT. Ad esempio, è possibile richiedere agli studenti di confrontare i risultati da loro prodotti con quelli generati da ChatGPT o da altri sistemi di intelligenza artificiale, come illustrato in uno studio di caso riguardante una classe di laurea magistrale in economia aziendale condotto da Mok nel 2023.

Rendere trasparente e chiara l’integrazione dell’intelligenza artificiale nelle attività scolastiche consente di valutare in modo accurato ed equo il contributo degli studenti e quello dell’IA, promuovendo la responsabilità e la trasparenza.

La mancanza di 
trasparenza nelle
 istituzioni educative

Una questione di grande importanza è la mancanza di trasparenza nella comunicazione e nella descrizione dei processi di rilevamento delle frodi degli studenti. Molto spesso, le istituzioni educative non forniscono informazioni dettagliate sull’utilizzo di tali sistemi, limitandosi a brevi dichiarazioni nei programmi di studio o nei manuali degli studenti. Questo è sorprendente, considerando che tali istituzioni sono tenute a essere trasparenti su numerosi altri aspetti dell’istruzione e della vita studentesca.

La maggior parte delle politiche di condotta accademica sono vaghe e possono essere ambigue, lasciando ai docenti una discrezionalità considerevole21. Molte frodi possono avvenire involontariamente e derivare da errori o da fraintendimenti riguardo ai compiti e i test22. Con l’avvento di nuove tecnologie come ChatGPT e Bard, il rischio di equivoci aumenta. Le accuse di utilizzo improprio di questi sistemi di intelligenza artificiale possono avere conseguenze gravi per gli studenti, indipendentemente dal fatto che vengano o meno scagionati.

Consideriamo questa vicenda svoltasi all’Università della California-Davis e riporta da Jimenez23:

Quando William Quarterman si è collegato al portale web degli studenti per verificare i risultati del suo esame di storia, è rimasto sconcertato nel vedere un’accusa di frode allegata dalla sua professoressa. La docente aveva utilizzato un software di rilevamento dell’intelligenza artificiale, GPTZero, dopo aver notato che le risposte del ragazzo «avevano poca attinenza con le domande». Secondo il software, la professoressa aveva ragione. Allo studente è stato attribuito un voto negativo ed è stato segnalato all’Ufficio di sostegno studentesco e affari giudiziari dell’Università, accusato di disonestà accademica. Nonostante Quarterman abbia negato di aver ricevuto aiuto dall’IA, gli è stato chiesto di comparire davanti alla corte d’onore dell’università, un’esperienza che gli provocato attacchi di panico. Alla fine, però, è stato scagionato.

La complessità dell’accusa di frode e le sue implicazioni

Le definizioni di “imbroglio”, “plagio” e “frode” hanno un impatto notevole. Gli studenti accusati di imbrogliare e che non sanno come difendersi possono vivere una significativa diminuzione della loro autostima, come evidenziato da uno studio condotto da Duncan e Joyner nel 2022. E anche quelli che confessano di aver imbrogliato possono affrontare conseguenze durature sia sul piano accademico che sociale. È fondamentale, quindi, che gli sviluppatori e gli utenti di programmi anti-frode prestino grande attenzione alle implicazioni sociali ed etiche24.

L’analisi e la verifica dei sistemi di rilevamento delle frodi sono complesse principalmente perché è raro ottenere una prova definitiva. Spesso non c’è un elemento incontrovertibile o inequivocabile che dimostri che uno studente ha effettivamente imbrogliato durante un esame o un compito. Ad esempio, i sistemi di e-proctoring (supervisione degli studenti durante un esame mediante software) collegano il desiderio di imbrogliare con segnali fisici involontari degli studenti (movimenti degli occhi, eccessiva sudorazione) conosciuti come leakage. Tuttavia, queste manifestazioni fisiche non sono certamente prove conclusive di colpevolezza. Il fatto che uno studente mostri segni di nervosismo o ansia durante un esame non significa che stia imbrogliando.

A differenza dei contesti lavorativi o militari, in cui i comportamenti scorretti pongono un problema giuridico e finiscono quindi davanti a tribunali, nel contesto accademico l’elaborazione delle accuse avviene principalmente all’interno dell’istituzione educativa stessa. Ciò significa che non vi sono molti precedenti legali o sentenze giudiziarie atte a stabilire standard specifici per questi casi. Questa mancanza può rendere le decisioni delle istituzioni educative più soggette a discrezionalità, a meno che non ci siano politiche chiare e codici di condotta specifici in vigore. Molto spesso la conclusione di un caso di frode accademica si basa sull’ammissione di colpa da parte dello studente. Se riconosce di aver imbrogliato, il caso è generalmente considerato chiuso. Ma se nega o contesta le accuse, può diventare difficile stabilire con certezza se la frode è avvenuta o meno.

La posizione svantaggiata degli studenti

L’implementazione di tecnologie di rilevamento delle frodi, come il riconoscimento facciale, solleva importanti preoccupazioni legate alla privacy degli studenti. La raccolta di dati personali può produrre disagio e alimentare preoccupazioni sulla sicurezza. Inoltre, c’è il rischio che tali tecnologie siano influenzate da pregiudizi, rendendo le valutazioni non del tutto obiettive ed equilibrate.

Un esempio concreto che evidenzia queste preoccupazioni è la storia di Amaya Ross, una studentessa afroamericana che si è trovata a utilizzare Proctorio, il software di Proctoring, per un quiz di biologia. Nonostante avesse provveduto ad assicurarsi una buona illuminazione e a sostenere l’esame durante le ore di luce del giorno, il software non è stato in grado di riconoscere il suo volto25. Questo episodio mette in evidenza come tali tecnologie non solo sollevino questioni sulla privacy, ma possano anche causare disagi agli studenti.

Gli studenti sono in una posizione di svantaggio rispetto alle organizzazioni tecnologiche specializzate nel rilevamento delle frodi, come Turnitin, che operano tramite accordi di outsourcing e sono considerate entità esterne alle istituzioni scolastiche. Anche nel caso in cui un particolare metodo o software di rilevamento delle frodi venga condannato o giudicato inappropriato, è probabile che nuove soluzioni siano adottate per soddisfare le esigenze delle istituzioni scolastiche. La mancanza di risorse finanziarie può inoltre ostacolare gli studenti nel contestare le accuse di frode attraverso azioni legali, con conseguenze significative sulla loro reputazione accademica ed emotiva26.


NOTE

  1. B. K. Pathak, Emerging online educational models and the transformation of traditional universities, in «Electronic Markets» 26(4), 2016.
  2. M. Klein, CUNY professors uncover ’scandalous’ level of cheating in final exams, «New York Post» 13 giugno 2020.
  3. K. A. Burgason, O. Sefiha, L.Briggs, Cheating is in the eye of the beholder: An evolving understanding of academic misconduct, in «Innovative Higher Education» 44(3), 2019.
  4. N. K. Thi, M. Nikolov, How teacher and Grammarly feedback complement one another in Myanmar EFL students’ writing, in «The Asia-Pacific Education Researcher» 31(6), 2022.
  5. T. Dick, Supercalculators: Implications for calculus curriculum, instruction, and assessment, in J. T. Fey, Calculators in Mathematics Education, Yearbook of the National Council of Teachers of Mathematics, Reston 1992.
  6. D. R. Perry, A. K. Steck, Increasing student engagement, self-efficacy, and meta-cognitive self-regulation in the high school geometry classroom: do iPads help?, in «Computers in the Schools», 32(2), 80569.2015.1036650.
  7. G. Pruschak, C. Hopp, And the credit goes to…Ghost and honorary authorship among social scientists, in «Plos one» 17(5), 2022.
  8. D. Cutas, D. Shaw, Writers blocked: On the wrongs of research coauthorship and some possible strategies for improvement, in «Science and Engineering Ethics» 21, 2015.
  9. J. Goodman, Attribution: How authorship credit contributes to the gender gap, in «Yale Journal of Law & Technology», 2023 (in uscita).
  10. B. Tolchin, Are AI chatbots in healthcare ethical?: Their use must require informed consent and independent review, in «Medpage Today»,aprile 2023.
  11. P. G. Moeck, Academic dishonesty: Cheating among community college students, in «Community College Journal of Research and Practice» 26(6), 2002.
  12. G. Marks, It sounds like science fiction but it’s not: AI can financially destroy your business, «The Guardian», 9 aprile 2023.
  13. A. Amigud, P. Dawson, The law and the outlaw: Is legal prohibitiona viable solution to the contract cheating problem?, in «Assessment &Evaluation in Higher Education» 45(1), 2020.
  14. B. A. Anders, Is using ChatGPT cheating, plagiarism, both, neither, or forward thinking?, in «Patterns» 4(3), 2023.
  15. P. Jandrić et al., Collective writing: The continuous struggle for meaning-making, in «Postdigital Science and Education» 1-43, 2022.
  16. J. Hsu, Plagiarism tool gets a ChatGPT detector – some schools don’t want it, in «New Scientist», 3 aprile 2023.
  17. G. Eysenbach, The role of ChatGPT, generative language models, and artificial intelligence in medical education, in «JMIR Medical Education» 9(1), 2023.
  18. K. Darlington, ChatGPT is a ground-breaking application of AI that we will all be hearing about in the near future, in «IQ: The RIMPA Quarterly Magazine» 39(1), 2023.
  19. M. Khalil, E. Er, Will ChatGPT get you caught? Rethinking of plagiarism detection, arXiv preprint, 2023.
  20. P. Yu, P., Chen et al., CHEAT: A large-scale dataset for detecting ChatGPT-written abstracts, arXiv preprint arXiv:2304.12008, 2023.
  21. K. Zamastil, Legal issues in US higher education, in «Common Law Review»,6, 2004.
  22. G. T. Dow, Do cheaters never prosper? The impact of examples, expertise, and cognitive load on cryptomnesia and inadvertent self-plagiarism of creative tasks, in «Creativity Research Journal» 27(1), 2015.
  23. K. Jimenez, Professors are using ChatGPT detector tools to accuse students of cheating. But what if the software is wrong?, apparso sul sito USA Today il 12 aprile 2023.
  24. E. Taylor, Surveillance schools: Security, discipline and control in contemporary education, Springer, New York, 2013.
  25. J. Verplaetse et. al., You can judge a book by its cover: The sequel: A kernel of truth in predictive cheating detection, in «Evolution and Human Behavior» 28(4), 2007.
  26. Z. Corbyn, “I’m afraid”: Critics of anti-cheating technology for students hit by lawsuits, «The Guardian», 26 agosto 2022.

Tratto da Jo Ann Oravec, Artificial Intelligence Implications for Academic Cheating: Expanding the Dimensions of Responsible Human-AI Collaboration with ChatGPT and Bard, in «Journal of Interactive Learning Research» (2023), 34(2), 213-237.

Traduzione di Francesca Nicola.

Condividi:

Jo Ann Oravec

Insegna all’Unicersità del Wisconsin-Whitewater, USA.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it