
Isaac Asimov era un visionario. E quando dico “visionario””, mi riferisco al significato anglosassone del termine, non a quello italiano. In inglese, un visionary è qualcuno che riesce a vedere il futuro e ha delle basi solide che gli permettono di dire come sarà. Isaac Asimov era uno di questi, come si può facilmente comprendere leggendo il suo libro, Il vagabondo delle scienze[1].
In questo testo, Asimov scrive molto di tecnofobia e di cosa essa sia. Da un lato, la tecnofobia riguarda il panico, la paura che le persone hanno non tanto verso la tecnologia in sé, quanto verso le conseguenze che questa potrebbe avere: l’impatto sul lavoro, sulla vita, sui cambiamenti epocali. Dall’altro, l’autore descrive la tecnofobia come il timore ancestrale di dover ricominciare tutto da capo. Montare, smontare e rimontare.
Imparare a ri-imparare
Più hai studiato, più hai raggiunto obiettivi significativi a livello lavorativo, più diventa difficile dire: “Devo mescolare le carte di nuovo, cambiare il tutto, azzerare e ricostruire”. Quindi non si tratta solo di apprendere, ma di imparare a ri-apprendere. Quando hai imparato poco, è più facile: non sei ancora così emotivamente legato a ciò che sai, al bagaglio che porti con te; ma più diventi grande, più competenze hai accumulato nella tua vita, più diventa difficile accettare che il mondo sia cambiato e che tu debba cambiare il modo in cui fai le cose, ricominciare da capo. Trovarsi nel “mezzo del cammin della vita” senza aver costruito un’abitudine a imparare e a tenersi in aggiornamento rende tutto molto più impegnativo. Da un lato, manca un habitus, dall’altro, biologicamente le nostre competenze in numeracy e literacy, se non debitamente allenate, si arrugginiscono. Ne abbiamo parlato in un articolo poco tempo fa[2]: nel corso della vita, l’unico modo per non perdere le abilità cognitive è rimanere sempre in allenamento. Questo è valido a tutte le età e in entrambi i sessi, con un occhio di riguardo per le donne, che tendono a perdere più in fretta le loro abilità e necessitano di maggiore esercizio per rimanere mentalmente in forma nel corso della vita.
Imbarazzo? Boomer!
Oltre a questi aspetti più tecnici, legati al processo di apprendimento in sé, Asimov mette in luce un aspetto che spesso non viene capito oppure sottolineato a sufficienza: il sentimento di imbarazzo. L’imbarazzo che si prova nel dover imparare di nuovo, nel dire: “Non so come funziona questo”, nella fattispecie, “Non so come funziona questa macchina”. Pensate ai computer. Pensate all’intelligenza artificiale. Non è facile, se hai lavorato tutta la vita con determinate modalità, cambiare il tuo modo di agire, di apprendere, di vivere. Ti senti in imbarazzo, perché magari è qualcosa che trovi davvero difficile. E la società non tiene conto di questo, ovvero del fatto che qualcuno possa faticare a fare qualcosa di nuovo. Ma “fare fatica” non significa essere deboli. Anzi, ci si rafforza facendo fatica. Altrimenti non si impara nulla. Non si progredisce. Non si evolve. Non si esce dalla famosa zona di sviluppo prossimale di Vygotskij.
E questo è un punto importantissimo, soprattutto quando pensiamo all’insegnamento delle nuove tecnologie a scuola o alla progettazione dei corsi di aggiornamento per gli insegnanti. Spesso non ci rendiamo conto che i processi di apprendimento sono faticosi, mentalmente, fisicamente ed emotivamente. Se i tempi ci chiedono di fare qualcosa di nuovo, dovrebbe essere legittimo richiedere (pretendere) del tempo messo a disposizione. Nel farlo, a volte, si prova imbarazzo. In una società come la nostra, rapida, in costante cambiamento, sembra non sia più accettabile prendersi tempo per imparare, per approfondire, per darsi da fare. Quanti, non sapendo utilizzare un nuovo device, si sono sentiti dare del boomer, come se fermarsi a pensare prima di agire fosse qualcosa di deplorevole. Questo accade molto spesso proprio quanto ci approcciamo per la prima volta a tecnologie avanzate, come i sistemi di intelligenza artificiale o programmi informatici complessi: non tutto è comprensibile in maniera intuitiva.
Il “signor Errore”
Un altro aspetto che rimuoviamo dall’orizzonte delle possibilità quando siamo fruitori (non attori) di sistemi di intelligenza artificiale, è la possibilità di sbagliare, di compiere errori. James Joyce, nell’Ulisse, scrive che «gli errori sono porte verso la scoperta». Utilizzando i sistemi di IA in maniera incondizionata, non come sprone ma come cuscino[3], si rischia di non aprire queste porte.
Pensate alla ricerca scientifica: raramente ciò che è scritto nelle ipotesi di ricerca è ciò che si ottiene alla fine del processo. Spesso il percorso è accidentato, è ricco di esperimenti tecnicamente non riusciti o con esiti diversi da quelli attesi. Da ogni curva del nostro percorso, impariamo qualcosa di nuovo. Lo apprendiamo sia dai risultati, sia dal processo stesso, dal viaggio. Accogliere il “signor Errore”[4] come un ospite desiderato: anziché chiedere a una IA di rispondere alle domande assegnate per compito, potremmo sottoporle le nostre risposte e chiederle quali siano i punti di forza e quali siano invece gli aspetti da migliorare. Nuovamente, lo strumento diventa sprone.
Nello stesso libro, Asimov mette in evidenza anche altri aspetti legati alla tecnologia. E voglio sottolineare che è stato scritto più di quarant’anni fa, nel 1983, ma si adatta perfettamente alla società odierna, ponendo le stesse domande sulle quali quotidianamente riflettiamo, come forse la Domanda, con la d maiuscola: “Pensate che la tecnologia supererà l’umanità? Ci sarà un momento, in futuro, in cui i computer prenderanno il posto degli esseri umani nel fare le cose? In cui la tecnologia sarà molto più intelligente di quanto lo siano gli esseri umani?”.
Timori e piccioni
Ma se il nostro timore principale è che qualcosa di esterno ci “sostituisca”, allora dovremmo forse temere anche i piccioni. Già nel 2015, uno studio pubblicato su «Plos One»[5] ha dimostrato che, se addestrati, i piccioni sono in grado di discriminare immagini di tessuti tumorali maligni da quelli benigni, con una precisione paragonabile a quella di un patologo umano. Dopo una fase di addestramento, il team di volatili ha superato prove di classificazione di immagini istopatologiche con un’accuratezza che ha lasciato stupiti i ricercatori. Allora perché i piccioni non suscitano ansie esistenziali? Forse perché ci appaiono naturali e inoffensivi. E invece la vera paura non è essere superati, ma sentirci meno speciali.
Ma se un piccione lo collochiamo facilmente su una scala evolutiva, lo stesso non possiamo fare con l’intelligenza artificiale e nel nostro intimo, magari, temiamo di perdere la nostra unicità. Quanto è concreto questo timore? Asimov si chiede se questo sia un pericolo reale, o se non sia solamente una reazione di panico, un riflesso collettivo che si è già verificato molte volte nella storia. Pensiamo a quando fu inventata la scrittura: i narratori orali, i bardi, i cantastorie, che erano abituati a memorizzare tutto a mente, avranno pensato che il loro lavoro fosse in pericolo, e probabilmente si lasciarono andare a pensieri come: “Con la scrittura, probabilmente la memoria non sarà più allenata e sparirà nel giro di pochi anni”.
La tecnologia, quindi, ci ha dato più possibilità, ha ampliato i nostri orizzonti. Probabilmente, ciò che stiamo vivendo ora è solo una nuova fase, una nuova soglia, la nuova invenzione della scrittura, un cambio di paradigma. E dobbiamo superarlo.
Quale intelligenza
Asimov sottolinea costantemente ed evidenzia l’importanza di una collaborazione tra intelligenza umana e artificiale. Le due intelligenze possono integrarsi, e una può potenziare l’altra. Ma cosa significa davvero la parola “intelligenza”? Intelligenza deriva dal termine latino intelligĕre che a sua volta è composto da inter (tra, attraverso) o intus (dentro) e legĕre (leggere): per i latini, dunque, intelligĕre significava leggere attraverso le cose, comprenderne il significato profondo, saper unire i puntini. Se ipotizziamo un mondo in cui le macchine prenderanno il posto del genere umano, per quali qualità riusciranno queste a sopraffarci? Quali saranno le caratteristiche che vinceranno la gara con la controparte umana? In parole semplici, cosa significa essere intelligenti? Quante forme di intelligenza conosciamo?
Le macchine funzionano in un modo pensato e programmato dagli esseri umani. Il nostro cervello, invece è il risultato di un lungo processo evolutivo che ha modellato le sue funzioni attraverso l’interazione con ambienti complessi e mutevoli: i viventi sono in grado di vedere le cose in un modo che, almeno per ora, le macchine non possono. Non sappiamo cosa accadrà in futuro, ma per ora possiamo ancora gestire più aspetti contemporaneamente. Non possiamo calcolare istantaneamente milioni di numeri, ma possiamo tenere conto di molte variabili non quantitative nello stesso tempo. Non tutto è computabile, se ci pensate.
La storia di una persona, le emozioni che percepiamo durante una conversazione, le vibrazioni che sentiamo quando chiediamo qualcosa, vanno ben oltre alla variazione del diametro della pupilla e alla conduttività della pelle. Spesso, soprattutto nelle dinamiche di classe, le decisioni che prendiamo come insegnanti non sono sempre le migliori per quel determinato allievo, ma sono una via di mezzo tra ciò che sarebbe il meglio e ciò che è attuabile in quel momento e in quel contesto. Quando prendiamo una decisione, valutiamo così tanti fattori che non sono computabili da una macchina. Perché possiamo sentire qualcosa, avere un “sesto senso” che la macchina non ha. Sì, magari alla fine anche lei arriverà alla stessa decisione, ma la scelta di una persona è più integrata, più completa.
E poi c’è la creatività. Pensate a quanto l’intelligenza artificiale possa aiutarci a essere più creativi. E non sto parlando di prompt per generare immagini, ma per esplorare nuove possibilità.
Il cervello con e senza LLM
Recentemente è stato pubblicato un articolo[6], un preprint, secondo cui le persone che usano i Large Language Models (LLMs), come Chat GPT, sembrano perdere la capacità di pensare in maniera critica. Nello specifico, il team di ricercatori del Massachusetts Institute of Technology (MIT) ha valutato tramite elettroencefalogrammi l’attività cerebrale di alcuni soggetti ai quali era stato richiesto di scrivere un testo. I risultati ottenuti in varie sessioni hanno comparato tre gruppi: il primo ha utilizzato i Large Language Models per scrivere il saggio richiesto; il secondo ha potuto consultare solo i motori di ricerca; il terzo ha dovuto scriverlo in totale autonomia. Ciò che è emerso è che i partecipanti appartenenti all’ultimo gruppo avevano attivato una vasta gamma di circuiti cerebrali, tra quelli per il reperimento di informazioni, network legati alla generazione di idee o relativi alla formulazione di frasi e l’uso del linguaggio. Il tutto coordinato dalle regioni esecutive del lobo frontale. Di contro, il gruppo che ha lavorato solamente con il LLMs ha rivelato un generale depotenziamento dei circuiti cerebrali, un’attenzione più convergente (verso gli spunti del LLM) e una minore attivazione delle aree coinvolte nei processi creativi.
Un aspetto molto interessante, oltre alla maggiore o minore attivazione dei circuiti cerebrali coinvolti nella stesura di un testo, è anche la modalità e la direzionalità della formazione dei pensieri. Il gruppo che ha lavorato in autonomia ha mostrato un flusso di attivazione dal basso verso l’alto, ovvero dalle regioni temporali e parietali verso la corteccia frontale: questo può essere interpretato come una coordinazione generale delle aree esecutive (lobo frontale) in seguito a input e contenuti provenienti da altre aree, ai fini di una integrazione e della produzione dell’elaborato finale. In termini semplici, le diverse aree del cervello “nutrono” la corteccia frontale con i propri “cibi”, ovvero contenuti, parole, emozioni: l’area esecutiva pesca dal suo interno più profondo e intimo per iniziare il processo creativo. Nel cervello di chi ha adoperato i LLMs la direzione è opposta, dall’alto verso il basso. La corteccia frontale non gioca più il ruolo di organizzatore ed esecutore finale, ma fa da mediatore, integrando e filtrando i contributi proposti dal tool e “imponendoli” al resto del cervello: è come se l’utilizzo del LLM impedisse al cervello di elaborare ipotesi alternative, strategie diverse. Dal pensiero divergente, al pensiero convergente.
Pensiero divergente
La creatività deriva proprio dal vedere le cose con occhi diversi, sotto diverse prospettive: pensiamo ai grandi artisti, a Van Gogh, ad esempio. Il modo in cui vedeva il cielo era meravigliosamente differente da come lo vedeva Giotto. Penso a Bruno Munari nel suo “Disegnare un albero” e a quanto il suo punto di vista fosse davvero unico e originale. Tutti grandi fautori della divergenza.
Non dobbiamo però dimenticare che l’intelligenza artificiale può essere uno strumento potentissimo anche per coloro i quali faticano maggiormente nel nostro sistema sociale. È stato pubblicato lo scorso anno un interessante lavoro legato alla creatività nell’ambito della scrittura e l’utilizzo di LLMs[7]. Ciò che è emerso è che in linea di massima, la creatività, in termini di novità e la rilevanza, aumenta quando gli autori utilizzano l’I.A. per generare idee iniziali (anche in quelli non particolarmente dotati o più in difficoltà), ma i testi finali tendono ad essere tutti molto simili tra loro. Può supportare, stimolare, permettere di ampliare gli orizzonti, ma va utilizzata in maniera oculata. Altrimenti, di nuovo, convergenza.
Altra questione sulla quale riflettere: i sistemi come Chat GPT o Gemini non includono le sfumature che potrebbero invece produrre cervelli neurodivergenti. Pensando ai disturbi specifici dell’apprendimento, mi viene in mente un formulario di geometria a dir poco psichedelico, che a mio avviso era del tutto inefficace. Questo era il mio punto di vista personale, e infatti una studentessa con neurodivergenza mi fece notare che lei invece lo avrebbe utilizzato, perché in quel contesto si sarebbe maggiormente concentrata. In un contesto scolastico «siamo noi a decidere se questi strumenti ci faranno da cuscino o da sprono»[8].
Se utilizzare l’intelligenza artificiale significa delegare ogni attività intellettuale, abbiamo scelto la via del cuscino, ma come ogni innovazione tecnologica, dipende da noi. Perché non far generare un formulario completo, da adattare poi al mio sistema di riferimento e di apprendimento? Per uno studente con DSA (Disturbo Specifico dell’Apprendimento), creare autonomamente mappe e schemi potrebbe essere molto complesso all’inizio del suo percorso. Si potrebbe utilizzare Chat GPT inserendo un prompt scritto in questo modo: «Devo realizzare una mappa concettuale/uno schema per studiare scienze. Devo affrontare il capitolo sulla circolazione del sangue. Mi fai alcune proposte di schema vuoto, senza contenuto, ma con suggerimenti su come strutturarlo».
IA e scaffold
Riflettiamo: innanzitutto stiamo chiedendo al sistema più risposte, stiamo puntando a divergere e non a convergere. Inoltre, non stiamo chiedendo uno schema già fatto (in rete ce ne sono di già fatti, senza ricorrere alla IA), ma un supporto iniziale. L’IA diventa uno scaffold per il mio apprendimento, uno scaffold davvero potente. È chiaro che non sarà mai sufficiente da sola: non sa di cosa si è parlato in classe, non è a conoscenza degli aspetti che sono emersi e sono stati sottolineati dall’insegnante o dai compagni. Alla macchina manca la parte di interazione, manca quella componente che lega le emozioni all’apprendimento. Potrà anche preparare lo schema migliore del mondo sulle guerre Puniche, ma se in classe ho vissuto malissimo quell’argomento per ragioni tutte mie, probabilmente sarà inefficace e non raggiungerò il mio obiettivo. Dovrà essere il mio stimolo, il mio gancio a far partire il processo di apprendimento, partendo dalla mia esperienza. Delego lo scheletro, non il cuore.
Prima abbiamo parlato di imbarazzo nel re-imparare. Quante famiglie abbiamo incontrato nel corso della nostra pratica didattica che si sono rivelate molto collaborative, ma magari con poche risorse per poter seguire adeguatamente i figli, magari anche con DSA? Parliamoci chiaro, i tutor dell’apprendimento studiano anni per poter agire in maniera consapevole e mirata: perché un genitore dovrebbe essere automaticamente pronto e formato per farlo?
L’intelligenza artificiale può aiutare nello studio, per ripassare, per far porre domande alla macchina e valutare le nostre risposte. È uno strumento come un altro, come le flashcards scaricate dalla rete, ma con una differenza: l’IA è in grado di “conoscerci”, di personalizzare il proprio intervento educativo. Le richieste che poniamo ai sistemi di intelligenza artificiale le decidiamo noi: prima di formulare il mio quesito, questo deve prima essere molto chiaro nella mia testa. Prima di darle un prompt, devo sapere chi sono, cosa voglio da lei, da cosa partire, da cosa mi fa stare bene e funzionare adeguatamente. Se le chiedo di scrivere un testo, devo sapere che identità voglio che quelle parole comunichino, in che modo si manifestino.
Problemi di identità
La macchina può potenziare le nostre abilità non se svolge il lavoro al posto nostro, ma se e quando ci permette di fermarci e di riflettere. È un lavoro di metacognizione che spesso, da grandi, non svolgiamo. Forse è proprio qui che nasce la tecnofobia di cui parlava Asimov: non solo il timore legato alle conseguenze pratiche, o all’ansia del rimettersi dietro ai banchi, ma perderci in tutto questo, non sentirci più speciali. Chi sono io? Chi è la macchina?
Nei lavori citati prima, uno dei parametri che è stato valutato è la sensazione di appartenenza nei confronti dei testi scritti. Chi ne è l’autore? Chi ha pensato a questo testo? In un mondo così veloce, prendersi il tempo per pensare a sé stessi, per fare metacognizione, per riflettere su idee, emozioni, identità, è qualcosa di cui abbiamo davvero bisogno, tanto più lo hanno gli studenti e le studentesse in formazione. Forse abbiamo paura di perderci in un orizzonte così vasto, così incredibilmente immenso, ma sia mai che possa essere proprio questa tecnologia a farci ritrovare.
Note
[1] I. Asimov, Il vagabondo delle scienze, trad. it. di M. Veronesi, Mondadori, Milano 1985.
[2] A. M. A. Chiotto, “Use it or lose it”: Competenze di literacy e numeracy nel corso della vita. I quaderni della ricerca, La ricerca online, Loescher Editore, 9 maggio 2025.
[3] Asimov, Il vagabondo della scienza cit., p .387.
[4] M. Montessori, La mente del bambino, Garzanti, Milano 1999 (ed. orig. 1949).
[5] Levenson R.M. et al., Pigeons (Columba livia) as Trainable Observers of Pathology and Radiology Breast Cancer Images, in «Plos One», 18 novembre 2015, online qui.
[6] N. Kosmyna et al., Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, in «arXiv», 10 giugno 2025.
[7] A. R. Doshi, O. P. Hauser, Generative AI Enhances Individual Creativity but Reduces the Collective Diversity of Novel Content, in «Science Advances», vol. 10, n. 28, 12 luglio 2024.
[8] Asimov, Il vagabondo della scienza cit., p. 387.