Una scuola…
 diversamente digitale

Tempo di lettura stimato: 17 minuti
Impatti funzionali e disfunzionali 
di robotica e intelligenza artificiale 
nei futuri studenti e insegnanti. Dal numero 25 de «La ricerca», “Uomini e bot”.

 

Immagine creata da Midjourney, prompt: “La scuola del futuro”.

Negli ultimi 10 anni, l’evoluzione tecnologica ha determinato importanti cambiamenti nella società in generale, e nella scuola in particolare, richiedendo agli attori coinvolti importanti “adattamenti” e “flessibilità” in termini di upskilling (migliorare le proprie competenze per svolgere al meglio il proprio lavoro) e reskilling (acquisire o modificare le proprie competenze per svolgere compiti o attività differenti rispetto a ciò che si svolgeva in precedenza). Il periodo caratterizzato dalla pandemia del virus Covid-19, ad esempio, ha evidenziato le difficoltà del sistema scolastico a reagire celermente e in modo efficace all’esigenza creatasi (essenzialmente l’introduzione della Didattica a Distanza e l’utilizzo di molteplici piattaforme web per attuarla), sia sul versante strutturale sia sul versante insegnanti e studenti, determinando di fatto un sensibile peggioramento (soprattutto nella scuola secondaria) dei risultati alle prove INVALSI. D’altronde, già nel 2019, prima dell’esplosione pandemica, il Consiglio d’Europa evidenziava la situazione critica della scuola italiana, mettendo l’accento soprattutto sull’abbandono scolastico e sulla carenza di competenze chiave e di base sia negli studenti sia negli adulti del paese1.

Alle difficoltà descritte si aggiunge il gap generazionale che sempre più differenzia, dal punto di vista tecnologico, la generazione attuale da quella precedente e che, nel caso della scuola, ha visto una generazione di insegnanti tecnologicamente attivi con computer e email, e una generazione di studenti tecnologicamente attivissimi ma con smartphone, applicativi mobile, chat e social media. D’altronde, ogni generazione “adotta” quegli strumenti tecnologici che meglio si confanno (ovvero sono maggiormente funzionali) per raggiungere gli specifici obiettivi di sviluppo del periodo di vita e del momento storico che sta attraversando2. Per i nati negli anni Settanta, Ottanta e i primi anni Novanta, il computer e l’email sono stati certamente gli strumenti che hanno rivoluzionato profondamente le pratiche e le attività svolte prima dell’avvento di tale tecnologia. A partire dagli anni 2000, smartphone, mobile app e, soprattutto, social media (e chat) hanno rivoluzionato in modo sostanziale il modo di interagire, comunicare e, più in generale, di intendere la socialità3 con importanti ricadute sui “confini” che classicamente definivano gli spazi del lavoro, dell’educazione e della vita privata/famigliare.

Il resto è storia recente, caratterizzata soprattutto dalla diffusione al grande pubblico di ChatGPT (e delle varie applicazioni di Intelligenza Artificiale), che non ha fatto altro che acuire il gap precedentemente evidenziato. Da un lato, alunni e studenti entusiasti dell’IA e, dall’altro, mondo della scuola e genitori sempre più preoccupati di qualcosa che si allontana dalle loro modalità operative e dal loro controllo.

Chiediamoci allora se, sulla base dell’esperienza vissuta con i cambiamenti tecnologici introdotti durante il COVID-19, si possa immaginare un inserimento dell’intelligenza artificiale (IA) all’interno della scuola che eviti o, perlomeno, limiti i possibili effetti negativi e, soprattutto, che sia funzionale al raggiungimento degli obiettivi scolastici relativi allo sviluppo di conoscenze e competenze di alunni/studenti e insegnanti. Per rispondere a tale interrogativo, occorre partire proprio dall’aggettivo “funzionale” e “disfunzionale” che contraddistingue qualsiasi artefatto tecnologico4, ma ancor prima occorre introdurre il concetto di Zona di Sviluppo Prossimale5 ovvero il potenziale di sviluppo che caratterizza ogni persona.

Quando possiamo parlare 
di tecnologie funzionali 
e disfunzionali?

Analizzando il livello attuale di abilità o conoscenze di un individuo in un determinato compito e il livello potenziale che lo stesso individuo potrebbe raggiungere se, anziché lavorare da solo, vi fosse qualcuno (più esperto) a supportarlo, Vygotskij definì ciò che possiamo interpretare come potenziale di sviluppo (o di miglioramento) attuale che caratterizza ogni persona. Sebbene basato inizialmente sull’interazione fra esseri umani, Vygotskij era ben consapevole dell’importanza degli strumenti nello sviluppo cognitivo, sociale e culturale della specie umana, tant’è che Leont’ev (suo collaboratore) evidenziò che anche gli strumenti (più o meno materiali) giocano un ruolo importante in questo processo6. Definì così artefatti funzionali quegli “strumenti” funzionalmente integrati che rappresentano particolari risorse, interne ed esterne all’individuo, orientate a specifici obiettivi (ad es. l’apprendimento di una lingua). Se, da un lato, gli strumenti esterni (come un paio di forbici, gli occhiali, un’agenda) supportano e fanno da complemento alle abilità umane naturali costituendo un sistema più efficiente per il raggiungimento di un miglior esito, gli strumenti interni, come una teoria, un concetto o un’interpretazione, supportano la costruzione di soluzioni più evolute e creative e, dunque, il raggiungimento di un livello cognitivo superiore. Così, ad esempio, un paio di forbici, associate all’abilità umana del movimento delle dita, permette alla mano di divenire un “organo tagliente” che esplicita al meglio le sue potenzialità grazie all’integrazione strumento-abilità umana, mentre occhiali e lenti a contatto, associate all’abilità visiva (deficitaria), garantiscono una prestazione ottimale alla visione. Nel primo caso, uno strumento supporta un’abilità umana permettendole di fare qualcosa che altrimenti non sarebbe in grado di svolgere, o svolgerebbe ma con un risultato più scadente; nel secondo caso, gli strumenti compensano a una carenza umana e riportano la prestazione ad un livello ottimale altrimenti non raggiungibile. Nell’ottica di Kaptelinin7 e Zinchenko8 l’importanza degli artefatti è tale che si dovrebbe più propriamente parlare di organi funzionali, ovvero strumenti che rappresentano estensioni fisiche e/o mentali del corpo o delle abilità umane. Da questo punto di vista, la cosiddetta intelligenza artificiale e la robotica possono essere reinterpretate come l’estensione mentale e corporea dell’uomo in grado di esaltare e sostenere varie abilità cognitive (come la concentrazione, il problem solving, la creatività) e fisiche (ad es. la precisione nei movimenti, la forza per spostare o muovere gli oggetti), in modo talmente intuitivo da divenire una componente naturale in molteplici attività quotidiane.

Da quanto sinora delineato, potremmo allora affermare che uno strumento tecnologico è tanto più funzionale quanto più supporta lo sviluppo umano nei compiti richiesti dal periodo di vita che sta attraversando, agendo sulla costruzione/aumento di conoscenze e, soprattutto, competenze. Al contrario, una tecnologia diviene disfunzionale non tanto quando sostituisce la persona nell’esecuzione di un compito (o meglio, non solo), ma soprattutto quando sostituisce le sue abilità nell’esecuzione di quel compito, rischiando paradossalmente di eliminarle o limitarle. Un esempio tratto dal mondo scolastico può aiutare a comprendere meglio tali processi. Dinanzi al compito di effettuare una traduzione dall’italiano all’inglese di un determinato brano, uno studente può agire in due modi: a) inserire il testo italiano all’interno di un IA translator (come Deepl o anche ChatGPT), attendere la traduzione e poi copiarla e utilizzarla per il compito richiesto; b) scrivere il testo in inglese all’interno dell’IA translator e controllare in itinere la corrispondente traduzione italiana per verificare che sia corrispondente all’idea iniziale. Nel primo caso, il sistema di traduzione è utilizzato per tradurre parti della propria madre-lingua in una lingua straniera non ben padroneggiata, sostituendosi di fatto allo studente e alla sua abilità di traduzione. Tuttavia, in questo caso, è difficile immaginare come tale dinamica possa portare a un miglioramento della sua competenza nella lingua straniera, dato che non vi è alcuno scambio, negoziazione o riflessione sulla soluzione proposta. Nel secondo caso, al contrario, il sistema IA gioca un importante ruolo nel miglioramento del suo livello nella lingua straniera, in quanto lo studente non agisce all’interno della sua comfort zone di competenze (come nel primo caso), ma viene portato a riflettere su ciò che sta scrivendo e dunque a operare all’interno della sua zona di sviluppo prossimale (ovvero il suo potenziale di miglioramento), grazie al supporto di uno strumento tecnologico che lo spinge ad andare oltre le sue insicurezze con la lingua straniera. Talora il sistema potrebbe anche essere utilizzato per “scopi” che fuoriescono dalla funzione per cui originariamente è stato creato: è il caso di ChatGPT e dell’uso che molti ne hanno fatto come “supporto sociale” in determinati momenti della vita9. In tal caso, possiamo parlare del rischio di strumentalità inversa10, ovvero la tecnologia prende il sopravvento rispetto agli obiettivi per cui dovrebbe essere utilizzata, soprattutto a causa di carenze umane nella vita quotidiana con conseguente ricerca di compensazione11  tramite sistemi tecnologici evoluti che “mimano” il comportamento umano.

Da quanto detto finora risulta piuttosto evidente che, per rispondere alla domanda sugli effetti funzionali o disfunzionali che robotica e IA possono avere nei contesti scolastici, occorre focalizzare l’attenzione certamente sulle caratteristiche della tecnologia utilizzata, ma soprattutto sul modo in cui viene utilizzata nella didattica.

Caratteristiche funzionali 
di robot e IA per i 
contesti scolastici

Fra le caratteristiche della tecnologia utilizzata, in particolare per quanto riguarda i robot dotati di sistemi di IA, occorre considerare l’aspetto fisico. Sin dagli anni Settanta, varie ricerche hanno mostrato come generalmente l’essere umano sia più propenso ad accettare l’interazione con robot non-antropomorfi rispetto a robot antropomorfi, in quanto questi ultimi provocano spesso reazioni di inquietudine e paura12. L’IA sembra bilanciare tale fenomeno, nel senso che recenti ricerche mostrano che l’effetto “repulsione” viene tanto più mitigato quanto più il robot mostra di avere conoscenze e competenze importanti per ciò che si sta svolgendo13. Probabilmente, da un robot “meccanico” ci si aspetta che mostri importanti prestazioni dal punto di vista del movimento, della forza e della precisione nell’esecuzione (ad es. per quanto riguarda laboratori di materie tecniche), mentre da un robot avente sembianze umane ci si aspetta che abbia conoscenze e competenze tali per cui sia in grado di interloquire e interagire “alla pari” con un partner umano. Dunque, bilanciare adeguatamente l’aspetto più o meno umanoide con abilità e conoscenze è un primo punto da considerare per far sì che robot e sistema IA possano risultare funzionali ai processi didattici (e di sviluppo di conoscenze e competenze).

Il secondo punto importante è il modo in cui una tecnologia “interagisce” con l’essere umano: se l’IA viene lasciata libera, ovviamente, si comporta “liberamente” entro le possibili “soluzioni” che il database di cui è dotata mette a sua disposizione. Occorre infatti non dimenticare che l’IA risponde a sollecitazioni, richieste, domande o, più semplicemente, al programma (obiettivo) che “guida” le sue azioni. La specie umana, solitamente, non risponde semplicemente alle sollecitazioni contestuali, ma è proattiva e agisce anche sul contesto per modificarlo e adattarlo alle proprie esigenze (purtroppo, a volte, con esiti non sempre positivi). Dunque, come programmare al meglio l’IA per l’ambito educativo?

Le ricerche effettuate da quasi un secolo, sia nell’ambito della psicologia dell’apprendimento sia nell’ambito della psicologia dell’educazione e della formazione, hanno evidenziato importanti processi che possono essere messi in atto per far sì che vi sia apprendimento o che la didattica risulti più o meno efficace nel raggiungere i suoi obiettivi. Ne sono esempi gli schemi di rinforzo e le macchine per apprendere di Skinner in ambito comportamentale, la zona di sviluppo prossimale di stampo vygotskiano, l’importanza del pensiero divergente e del networked flow per i processi creativi14 o l’efficacia del conflitto socio-cognitivo per lo sviluppo cognitivo e il problem solving15. Sarebbe dunque opportuno far sì che, sulla base di ciò che si vuole attivare come processo di costruzione/sviluppo di conoscenze e competenze, il sistema di IA che supporta la didattica possa essere “regolato” da tali processi, associati al ruolo che lo stesso sistema, o il robot, ha nella relazione didattica: semplice strumento, partner, tutor16. Esempi alquanto riusciti, da questo punto di vista, sono state alcune sperimentazioni effettuate con robot umanoidi che, fungendo da partner, replicano il conflitto socio-cognitivo per l’apprendimento della lingua inglese17 per migliorare l’orientamento spaziale18  nei bambini della scuola materna e della scuola primaria. Altrettanto riuscite sono alcune esperienze in cui un robot giocattolo funge da semplice strumento per la soluzione creativa di problemi complessi (trovare la via di uscita in un labirinto) in gruppi di bambini, adolescenti e adulti19, esperienze in cui sono attivate le tipiche dinamiche del pensiero divergente e del conflitto socio-cognitivo (comunicazione, divergenza, negoziazione, condivisione di una soluzione alternativa).

Utilizzo funzionale di robotica 
e IA nei contesti scolastici

Per quanto riguarda il modo in cui robotica e IA sono utilizzate nei contesti scolastici, per massimizzarne gli effetti funzionali per la costruzione di conoscenze e competenze, sia negli alunni/studenti sia negli insegnanti, è opportuno che non si sostituiscano alle loro conoscenze e abilità, ma che si integrino al meglio alle attività in essere, in modo da portarli a un avanzamento sia dal punto di vista cognitivo sia dal punto di vista delle capacità. L’IA è stata creata dall’uomo a immagine e somiglianza dell’intelligenza umana: per tale motivo anch’essa è fallace, sebbene sia dotata di una capacità di calcolo che le permette una velocità e capacità di elaborazione assolutamente estranea all’intelligenza umana. Quest’ultima però è proattiva, può riformulare obiettivi, scopi e tempi di attivazione rispetto a determinati compiti, agendo peraltro in modo sostanziale sul contesto fisico, sociale e culturale circostante. Per tale motivo, pensare a IA e intelligenza umana in termini “competitivi” non ha senso: ognuna ha peculiarità specifiche che non possono essere sostituite dall’altra. Far sì che i contesti educativi e didattici evolvano richiede, al contrario, che si consideri la possibile integrazione (organo funzionale) fra le capacità dell’intelligenza umana (e dell’uomo) e le capacità dell’IA (e del robot), in modo tale che l’IA supporti l’intelligenza umana per raggiungere modalità di pensiero cognitivamente più avanzate. Gli esempi precedentemente proposti evidenziano proprio questa possibilità dimostrando come IA e robotica, lungi dall’essere semplici strumenti che si inseriscono nei processi educativi e didattici, siano particolarmente versatili, flessibili, stimolanti e motivanti per adattarsi al meglio in tutti i gradi e le discipline del contesto scolastico20.

A tali aspetti funzionali, si aggiunge ovviamente la possibilità di avere un apprendimento personalizzato, in quanto, da un lato, l’utilizzo di robot e sistemi IA aventi caratteristiche e programmazioni diversificate permette di seguire e supportare esigenze specifiche degli alunni/studenti, ma anche da parte degli insegnanti nella costruzione della loro didattica; dall’altro, l’IA è capace di evolvere e adattarsi progressivamente in base all’utilizzo che ne viene fatto, plasmandosi sempre più sulla base delle esigenze dell’utente. Dunque, se, da un lato, robotica e IA risultano particolarmente efficaci e funzionali per far sì che i contesti scolastici siano sempre più inclusivi, grazie a tecnologie assistive e adattive particolarmente avanzate, dall’altro, risultano particolarmente funzionali per supportare gli insegnanti nel definire, costruire e testare percorsi di didattica alternativa e innovativa.

L’importante è porre le domande giuste, ovvero sviluppare la capacità di dare al sistema di IA le informazioni più rilevanti ai fini dell’obiettivo che si vuole raggiungere. E qui nasce, dunque, un’ulteriore competenza che l’IA richiederà in futuro ovvero come interagire con essa e, in particolare, come formulare una richiesta per avere una risposta che sia il più completa e informativa possibile.

Non è tutto oro ciò che brilla: chiediamolo a ChatGPT

Sinora abbiamo analizzato quali effetti funzionali IA e robotica possono avere all’interno dei contesti scolastici, ma non ci siamo ancora soffermati sui possibili effetti negativi. Per farlo, quale interlocutore migliore della diretta interessata, ovvero ChatGPT, alla quale abbiamo chiesto quali siano i possibili effetti disfunzionali dell’introduzione di robotica e IA all’interno dei contesti scolastici.

Dal punto di vista strutturale, soprattutto per quanto riguarda la robotica, occorre considerarne i costi e l’accessibilità, anche dal punto di vista della manutenzione, nonché la richiesta di competenze tecniche sempre maggiori in base a quanto sono sofisticati i robot utilizzati. Per gli insegnanti ciò si esplicita in una formazione specifica che permetta di integrare al meglio la robotica all’interno del curriculum ed evitarne il sottoutilizzo o l’inefficacia del metodo didattico a causa, ad esempio, di un’enfasi posta sullo strumento anziché sul processo di apprendimento messo in atto (aspetti che sono stati ampiamenti evidenziati nei paragrafi precedenti).

Per quanto riguarda l’IA in sé, basandosi su dati derivati dall’esperienza umana (fallace), è possibile che le conclusioni cui giunge contengano errori o pregiudizi, proponendo importanti riflessioni dal punto di vista dell’equità e dell’etica.

Per quanto concerne il processo didattico e l’apprendimento, ChatGPT evidenzia alcuni importanti rischi legati all’utilizzo massiccio di tali strumenti tecnologici. Innanzitutto, una perdita delle interazioni umane (determinate ad esempio dall’interazione con robot o chatbot, come la stessa ChatGPT), con conseguente depersonalizzazione dell’apprendimento (che diverrebbe più “meccanico” e “isolato”) qualora il processo implichi, ad esempio, processi di FAD senza interazione fra gli studenti e con l’insegnante. La mancanza di interazioni umane potrebbe anche determinare il rischio di un impoverimento dal punto di vista dell’intelligenza emotiva e dell’empatia. Infine, siccome i sistemi di IA tendono a standardizzare i processi e a “regolare” il proprio comportamento sulla base del comportamento “normalmente” adottato dagli umani, il rischio è quello di un abbassamento del livello di creatività e di problem solving.

Ecco perché diviene particolarmente importante costruire percorsi didattici in cui l’IA e la robotica, sulla base dei processi psicologici precedentemente descritti, si intersechino al meglio all’interno della zona di sviluppo prossimale di alunni/studenti e insegnanti in modo da supportarli nell’evoluzione del loro modo di pensare e di agire. E proprio ChatGPT ci sottolinea quanto questo processo sia importante:

Affrontare questi aspetti problematici richiede un’attenta pianificazione, considerazioni etiche e un approccio equilibrato all’integrazione dell’IA nei contesti educativi. È importante dare priorità al benessere, all’equità e allo sviluppo olistico degli studenti, sfruttando al tempo stesso i vantaggi che l’intelligenza artificiale può offrire. … Integrare la robotica come strumento per migliorare le esperienze di apprendimento e sviluppare competenze come la risoluzione dei problemi, il lavoro di squadra e la creatività, piuttosto che semplicemente come una vetrina tecnologica, può aiutare ad affrontare queste sfide.

E scusate se è poco!


NOTE

  1. Cfr. G. Domenici, Apprendimento scolastico, «denutrizione scientifica» e atteggiamenti no-vax, in «Journal of Educational, Cultural and Psychological Studies (ECPS Journal)», n. 24, 2021, pp. 11-24.
  2. Cfr. E. Mazzoni, Dallo sviluppo degli artefatti Web all’evolversi delle attività umane. I processi del cambiamento, Morlacchi Editore, Perugia 2006.
  3. Cfr. M. Benvenuti, E. Mazzoni, Developmental Technologies. Evoluzione tecnologica e sviluppo umano, Apogeo Education, Milano 2019.
  4. Cfr. Benvenuti, Mazzoni, Developmental Technologies cit.
  5. Cfr. L. S. Vygotskij, Il processo cognitivo, a cura di M. Cole, trad. it. C. Ranchetti, Boringhieri, Torino 1980.
  6. E. Mazzoni, Dallo sviluppo degli artefatti Web all’evolversi delle attività umane cit.
  7. V. Kaptelinin, Computer-mediated activity: Functional organs in social and developmental contexts, in «Context and Consciousness: Activity Theory and Human-computer Interaction», a cura di B. Nardi, MIT Press, 1996, pp. 45-68.
  8. V. Zinchenko, Developing Activity Theory: The Zone of Proximal Development and Beyond, in «Context and Consciousness: Activity Theory and Human-computer Interaction», a cura di B. Nardi, MIT Press, 1996, pp.283-324.
  9. P. Carlbring, H. Hadjistavropoulos, A. Kleiboer, G. Andersson, A new era in Internet interventions: The advent of Chat-GPT and AI-assisted therapist guidance, in «Internet Interventions», 32, 2023.
  10. H. Ekbia, B. A. Nardi, Inverse instrumentality: How technologies objectify patients and players. In P. Leonardi, B. Nardi, & J. Kallinikos, Materiality and organizing: social interactions in a technological world, Oxford University Press, Oxford 2012.
  11. J. Zywica, J. Danowski, The faces of Facebookers: Investigating social enhancement and social compensation hypotheses; predicting Facebook™ and offline popularity from sociability and self-esteem, and mapping the meanings of popularity with semantic networks, in «Journal of Computer-Mediated Communication», 14(1), 2008, pp. 1-34.
  12. M. Mori, K. F. MacDorman, N. Kageki, The uncanny valley [from the field], in «IEEE Robotics & automation magazine», 19(2), 2012, pp. 98-100.
  13. S. Liao, L. Lin, Q. Chen, Research on the acceptance of collaborative robots for the industry 5.0 era–The mediating effect of perceived competence and the moderating effect of robot use self-efficacy, in «International Journal of Industrial Ergonomics», 95, 2023.
  14. G. Riva, L. Milani, A. Gaggioli (a cura di), Networked flow: Comprendere e supportare la creatività di rete, LED Edizioni Universitarie, 2012.
  15. Cfr. M. Benvenuti, E. Mazzoni, Developmental Technologies cit.
  16. O. Mubin, C.J. Stevens, S. Shahid, A. Al Mahmud, J. J. Dong, A review of the applicability of robots in education, in «Journal of Technology in Education and Learning», v. 1, 2013.
  17. E. Mazzoni, M. Benvenuti, A robot-partner for preschool children learning English using socio-cognitive conflict, in «Journal of Educational Technology & Society», 18(4), 2015, pp. 474-485.
  18. M. Benvenuti, E. Mazzoni, Enhancing wayfinding in pre-school children through robot and socio-cognitive conflict, in «British Journal of Educational Technology», 51(2), 2020, pp. 436-458.
  19. E. Mazzoni, M. Benvenuti, M. Orsoni, Robotica e tecnologie per lo sviluppo: come costruire le competenze del futuro in La società dei robot, Mondadori Education, Mondadori Università, Milano 2022, pp. 215-226.
  20. A. Cangelosi, S. Di Nuovo, La mente simulata (e-book), Giunti, Firenze 2016.
Condividi:

Elvis Mazzoni

Elvis Mazzoni è professore associato di Psicologia dello Sviluppo e dell’Educazione all’Università di Bologna. È anche Consulente Scientifico e socio fondatore di Unveil Consulting Srl e di PsicheDigitale. Si occupa degli effetti delle tecnologie digitali, della robotica e dell’intelligenza artificiale sullo sviluppo umano nell’intero ciclo di vita. Ha pubblicato vari contributi a livello internazionale e nazionale e, insieme alla collega Martina Benvenuti, ha scritto il volume Developmental Technolotie: Evoluzione Tecnologica e Sviluppo Umano edito da Apogeo Education.

Stefania Cardinali

è laureata in Giurisprudenza presso l’Università di Parma. Ha in seguito orientato il suo iter formativo in ambito Welfare, Diritto del Lavoro e HR. La passione e l’esperienza pregressa nella Comunicazione d’Impresa e nelle Pubbliche Relazioni l’hanno portata a collaborare con Unveil Consulting nella gestione e nello sviluppo dei progetti legati all’innovazione tecnologica e alla transizione digitale.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it