Intelligenza Artificiale, Educazione Speciale?

Tempo di lettura stimato: 13 minuti
Intelligenza Artificiale è un’espressione accattivante per Automazione Industriale. Abiti nuovi per una domanda antica, nelle dinamiche educative come in qualsiasi altro ambito: chi controllerà i controllori, una volta che le procedure di apprendimento, sorveglianza, monitoraggio, valutazione saranno messe in opera da macchine gestite in maniera automatica? Sulla base di quali parametri? Dall’ultimo numero de «La ricerca», “Umano, postumano, artificiale“.
Ai-Da presenta alcune opere esposte alla Barn Gallery del St. John’s College dell’Univerisità di Oxford nel luglio 2019.

La cosiddetta Intelligenza Artificiale (IA) va di moda. In Italia più che altrove: se prendiamo come termometro le ricerche online legate a questo termine, notiamo un’impennata significativa fra il 2019 e il 2020, mentre negli Stati Uniti AI (Artificial Intelligence) risulta in crescita relativamente costante negli ultimi 5 anni. I dati provengono da Google Trends, un servizio offerto da Google che è… un’Intelligenza Artificiale?!

Fra le applicazioni pratiche, esaltate dagli entusiasti e sminuite dagli scettici, ricordiamo: i servizi di assistenza alla clientela (in particolare i chatbot delle compagnie telefoniche); gli acquisti, sempre più personalizzati e rapidi; i social network, in particolare le notifiche e i feed (ad esempio, la timeline di FB, costruita in base al profilo di ciascun utente); la finanza, dove gli algoritmi di trading da parecchio hanno soppiantato gli obsoleti negoziatori umani; viaggi e trasporti, dai suggerimenti del navigatore alla pianificazione degli spostamenti fino alle occasioni di ospitalità; le case furbe (smart), disseminate di sensori in grado di regolare la temperatura dell’acqua, l’illuminazione e così via; le automobili furbe (smart), con tanti accorgimenti per assistere la guida, in prospettiva delle auto a guida autonoma; la sorveglianza e il controllo, nelle strade come a casa propria, spesso attraverso sistemi di riconoscimento facciale e vocale; l’assistenza sanitaria, nella diagnosi precoce così come nella ricerca farmaceutica di nuove molecole, nella gestione dei dati dei pazienti, nella chirurgia di precisione. E, infine, nell’educazione: per abbassare l’ansia dell’apprendimento, personalizzare l’insegnamento, ma soprattutto controllare e monitorare, valutare, schedare…

Sgombrare il campo dagli equivoci sull’IA non è banale. Spesso la discussione si concentra sugli algoritmi (per reti neurali, machine learning e così via), dei quali si chiede la regolamentazione, per evitare che decisioni rilevanti per gli umani vengano prese senza tenere in considerazione parametri etici, o estetici, ovvero la supremazia dell’umano. Ma un algoritmo è una ricetta per ottenere un certo risultato, un processo logico-formale strutturato in passaggi logici elementari: può essere economico in termini computazionali, magari elegante, senz’altro artificiale, ma non intelligente. E allora, da dove viene la parte intelligente dell’IA? A mio parere, è un’espressione allettante per indicare procedure di automazione effettuate con metodologie opache, spesso protette da segreto militare e/o industriale. In particolare designano processi particolarmente complicati a livello computazionale, ad esempio perché attingono a enormi bacini di dati ed è oneroso (o antieconomico) tenere traccia di ogni passaggio; procedure portate a termine in tempi estremamente rapidi e con risultati certi rispetto all’esecuzione da parte di umani.

Sia chiaro: l’automazione è non solamente necessaria, ma auspicabile in molte situazioni. Anche nel caso del comportamento umano: se siete intenti a eseguire un tuffo, eseguite una procedura interiorizzata, senza chiedervi cosa sta accadendo, senza dubitare, per non inficiare il tuffo stesso. Lo stesso accade durante l’interazione con macchinari, dai più semplici ai più complessi. Gli umani non si chiedono costantemente come facciano a stare in equilibrio su una bicicletta, né come funziona un’automobile. Per fortuna: altrimenti nessuno frenerebbe in tempo ai semafori, se dovesse prima calcolare le probabilità di incidente o ragionarci sopra! A maggior ragione, un chirurgo esperto, al pari di qualsiasi altro artigiano, interagisce con strumentazioni sofisticate spesso in stati di flusso1. La capacità di rimanere negli automatismi procedurali può essere vitale: si richiamano alla memoria e ripetono procedure apprese, senza pensare.

Esistono però anche altre modalità di apprendimento, che non fanno ricorso a un tipo di memoria procedurale e implicito, ma dichiarativo ed esplicito: è il caso del pensiero critico, del ragionamento argomentativo, del confronto dialettico e di molte altre situazioni in cui non è evidente e calcolabile a priori, e nemmeno in corso d’opera, quale sia il comportamento migliore da tenere o la risposta più adeguata.

Vediamo ora come l’IA è legata all’esecuzione di procedure automatizzate.

In principio era la cibernetica2

L’espressione IA pare sia stata coniata da John McCarthy nel 1955, in una proposta di finanziamento stesa insieme a Marvin Minsky e ad altri colleghi per seminari e laboratori da tenere al Dartmouth College l’estate successiva. Entrambi sarebbero diventati veri e propri guru per la neonata informatica e, appunto, l’IA. Allora si parlava di cibernetica, dal greco antico kubernetes, in italiano timoniere, in latino gubernator, colui che governa (la nave), da cui derivano i termini relativi al governo.
Il matematico Norbert Wiener aveva contribuito enormemente alla diffusione di questo termine con due testi, La Cibernetica – Controllo e comunicazione nell’animale e nella macchina (1948) e il meno tecnico L’uso umano degli esseri umani (1950). Wiener, nato e cresciuto negli USA da famiglia ebraica, aveva vissuto l’epoca della Grande Guerra, dell’ascesa dei totalitarismi, della Grande Depressione, della Seconda guerra mondiale e aveva maturato un profondo pessimismo riguardo all’evoluzione dei sistemi di controllo e comunicazione. Vedeva il mondo come un insieme di complessi circuiti di retroazione, in cui sensori, segnali e attuatori (ad esempio i motori, che mettono in atto i segnali trasmessi dai sensori) interagiscono attraverso un intricato scambio di informazioni. Razzi, robot, linee di assemblaggio automatizzate, reti di calcolatori sono tutti derivati dalle applicazioni ingegneristiche della cibernetica.

In piena Guerra Fredda, Wiener metteva in guardia dal rischio per le democrazie di combattere i totalitarismi con le armi del totalitarismo stesso: ad esempio, costruendo servomeccanismi, ovvero sistemi di retro-azione, in grado di scatenare l’apocalisse (nucleare) semplicemente pigiando un bottone. SE i sovietici avessero lanciato le loro testate, ALLORAALTRIMENTI…: il costrutto condizionale SE-ALLORA-ALTRIMENTI (if-then-else) è una delle basi logiche dell’automazione e si ritrova implementato in molti algoritmi.

Perché inventare una nuova locuzione? In fondo, McCarthy e Minsky studiavano proprio come migliorare i sistemi di comunicazione fra umani e macchine, in un’epoca in cui i computer occupavano intere stanze, erano meno potenti di una calcolatrice e la comunicazione avveniva con pile di schede perforate. Ma, giovani rampanti, non condividevano il pessimismo del vecchio Wiener. Erano molto più allineati con gli scienziati che avevano collaborato al progetto Manhattan per la messa a punto della bomba atomica, che si consideravano «i buoni», e cercavano di produrre applicazioni commerciabili a partire dalle ricerche cibernetiche. In primo luogo in ambito militare, oltre che civile: mi riferisco in particolare a John Von Neumann, ma anche al cosiddetto padre della teoria dell’informazione, Claude Shannon.

Certo, nella visione di Wiener mancava il riferimento alla mente, al pensiero… all’intelligenza! Si discuteva di come includere l’elemento cognitivo già nel 1942, al primo di una serie di incontri interdisciplinari sul controllo di sistemi complessi che sarebbero poi diventate le Conferenze Macy. Per effettuare il collegamento con le scienze sociali vennero coinvolti gli antropologi culturali Gregory Bateson e Margaret Mead. Bateson auspicava un nuovo tipo di ecologia dei sistemi in cui gli organismi e l’ambiente in cui vivono sono un tutt’uno e dovrebbero essere considerati insieme.
All’inizio degli anni Settanta, la cibernetica dei sistemi osservati (del primo ordine) era ormai intenta a considerare i sistemi osservanti (del secondo ordine): aveva incluso nel suo campo d’indagine l’osservatore. Il pensiero sistemico si diffondeva, sistemi interrelati fra loro spuntavano come funghi laddove poco prima si vedevano solo serie separate di oggetti e soggetti; insomma, la cibernetica non era più una disciplina separata e distinta dalle altre, ma stava contagiando ogni cosa. E lì rimane tutt’ora, nascosta in bella vista.

Per circa trent’anni la potenza di calcolo in circolazione rimase insufficiente per realizzare ciò che i pionieri avevano immaginato. Poi, a partire dalla seconda metà degli anni Ottanta del xx secolo, la diffusione dei Personal Computer (PC) e l’evoluzione del progetto militare di difesa DARPA in quello che oggi conosciamo come Rete di Internet, ha progressivamente portato la cibernetica davvero ovunque: ormai ribattezzata IA, oggi fa capolino nelle reti di calcolatori, negli smartphone, persino nelle lavatrici e negli altri elettrodomestici di uso quotidiano. Macchine connesse fra loro che tendono ad auto-regolarsi sulla base dei nostri bisogni e desideri, più o meno consapevolmente espressi.

E ora, chi sarà il timoniere, chi governerà l’IA realizzata? E come? Enormi sforzi vengono profusi nella propaganda di forme di IA «buona» (nice), per scongiurare i moniti di Wiener, che però sembrano più che mai attuali e riguardare l’intero pianeta.

IA per l’educazione

Passiamo brevemente in rassegna i principali ruoli che l’IA promette di svolgere nell’educazione, perlopiù attraverso l’introduzione di software e hardware (programmi informatici e apparecchiature elettroniche) che sono vere e proprie scatole nere (black box) fornite da aziende che si guardano bene dallo spiegare come funzionano questi sistemi opachi.

Innanzitutto, automatizzare e normalizzare l’assegnazione di voti. Certo, uno dei compiti più invisi agli insegnanti di ogni ordine e grado dipende da quella che Angélique Del Rey definisce «la follia valutativa»3, per cui non solo ogni attività dev’essere valutata secondo standard manageriali, compreso l’insegnamento, ma le operazioni di valutazione intaccano profondamente lo stesso insegnamento-apprendimento. Perciò non stupisce l’enfasi sulle possibilità di classificazione automatizzata: farebbero risparmiare tempo ed energie. Al momento l’IA è in grado di automatizzare solo la valutazione di materiali a scelta multipla: quindi gli insegnanti devono produrre materiali didattici altamente standardizzati.

In secondo luogo, alcuni compiti di routine possono essere gestiti da IA: è il caso della comunicazione con gli studenti. Per esempio, chatbot vengono già utilizzati in contesti universitari per comunicare con gli studenti come assistente didattici, senza che gli studenti si rendano conto che non stanno interagendo con un umano. In effetti, SE domanda = «Quando si svolgerà l’esame?», ALLORA risposta = «Il giorno X», è un tipo di comunicazione passibile di automazione.

Inoltre, secondo i sostenitori dell’IA per l’educazione, in futuro gli studenti avranno un compagno IA per l’apprendimento permanente. Per farla breve, come oggi i consumatori possono contare su algoritmi sempre più personalizzati che conoscono i loro gusti al punto da suggerire acquisti su misura che essi stessi non avrebbero scovato, le prossime generazioni di studenti potrebbero crescere con assistenti IA che conoscono la loro storia personale e la storia della scuola che frequentano, degli insegnanti e via dicendo. Così, calcolando al volo i punti di forza e le debolezze individuali di ogni studente, potranno aiutare a elaborare programmi di apprendimento personalizzati.

Diversi studi concordano nel sostenere che studenti affetti da disturbi dello spettro autistico possono trarre giovamento da assistenti IA che inculcano competenze sociali: certo, per chi soffre di difficoltà simili, SE situazione = «incontro compagno», ALLORA reazione = «saluto», potrebbe essere un tipo di apprendimento da automatizzare e introiettare tramite ripetizione meccanica.

D’altra parte, se le attività noiose e routinarie come valutare, assegnare i compiti, fornire informazioni logistiche e burocratiche saranno svolte da assistenti digitali «intelligenti», gli insegnanti potrebbero dedicarsi a ruoli di facilitazione e motivazione dell’apprendimento. Una sorta di allenatori, mentori per spingere a ottenere risultati più brillanti.

Al di fuori della classe, le IA potranno fornire servizi di tutoraggio personalizzato. Ad esempio prima di una verifica: poiché le IA conosceranno gli studenti meglio di quanto loro non conoscano sé stessi, un po’ come Amazon, Facebook e Google con gli adulti, potranno fornire gli strumenti aggiuntivi per rafforzare le proprie competenze; cioè immagazzinare informazioni in maniera più efficiente per sostenere con successo un esame: solo quelle necessarie, quelle (considerate) cruciali, e così via.

Infine, le IA lavoreranno per identificare i punti deboli della classe. Per esempio, potranno individuare quando e con che frequenza determinati gruppi di studenti saltano alcune domande, aiutando l’insegnante nel riallestimento e adattamento continuo del materiale didattico per migliorare le prestazioni individuali e complessive.

L’automazione dell’educazione

Wiener definiva la cibernetica «scienza del controllo e della comunicazione nell’animale e nella macchina». L’IA nell’educazione è questo, schermata magari da interfacce accattivanti, avvolgenti e aumentate, che propongono giochi istruttivi per apprendere divertendosi, con punti, classifiche, badge, livelli, status e premi per un po’ per tutti: è la via della gamificazione, inserimento di schemi di gioco in sistemi che non sono affatto giochi4.

Una lunga e purtroppo tutt’ora dominante tradizione pedagogica ritiene che l’oggetto dell’educazione sia la trasmissione di informazioni da un sistema insegnante (un libro, una professoressa, una macchina per insegnare e così via) a un sistema apprendente (ad esempio, un gruppo di allievi, una macchina capace di adattarsi o qualsiasi altro sistema in grado di mostrare comportamenti tipici dell’apprendimento). Tale processo di comunicazione si coniuga sempre con un determinato sistema di controllo: disciplina della classe, interrogazioni e così via. Grazie all’impiego di macchine digitali connesse in Rete, il paradigma dell’IA tende da un lato a standardizzare le prestazioni, introducendo un elemento di quantificazione per così dire «scientifico» in un ambito di per sé qualitativo, perché eminentemente relazionale; dall’altro aspira a personalizzare l’insegnamento e l’apprendimento, con l’obiettivo dichiarato di ottenere il massimo (punteggio quantificabile) da discenti e docenti.

Il pedagogista brasiliano Paulo Freire lo avrebbe definito apprendimento depositario, in cui il deposito di conoscenze dal sistema insegnante al sistema apprendente può essere velocizzato, facilitato e aumentato grazie a tecniche di automazione della comunicazione e del controllo dell’avvenuto deposito conoscitivo. All’opposto, un’educazione critica e problematizzante promuove la coscienza critica in un rapporto dialogico: la conoscenza si costruisce insieme, si impara insegnando, si insegna imparando.

L’IA, almeno per come viene proposta in questo scorcio di XXI secolo, nel migliore dei casi può sorvegliare in maniera continuativa docenti e discenti, sostenere un addestramento personalizzato e alleviare lo svolgimento dell’ordinaria massa di burocrazia, operazioni che nulla hanno a che fare con l’educazione propriamente detta. Non mi pare un buon viatico per lo sviluppo di consapevolezza.

Questo non significa che le macchine digitali debbano essere bandite dall’insegnamento e dall’educazione tout-court. Significa però che bisogna sceglierle in maniera oculata, perché le macchine, come gli umani, non sono tutte uguali. Esistono macchine corporative, chiuse e proprietarie, strutturalmente asservite a interessi di lucro e dominio. Esistono anche macchine libere, aperte e possibili compagne di percorsi di autonomia condivisi. Per distinguerle bisogna fare attenzione ai dettagli: sono sistemi che non promettono la luna, non garantiscono prestazioni mirabolanti o superiori alla media, non ammiccano a risparmi o guadagni, ma senz’altro richiedono di porre attenzione ed energie per averci a che fare, per esempio per poterle riparare quando possibile.

Le tecnologie conviviali, per parafrasare Ivan Illich, possono aiutare gli umani a promuovere la realizzazione della libertà individuale in seno a una società dotata di strumenti efficaci5. Ma non ci sono automazioni risolutive né procedure tecno-magiche. In ogni caso, il piacere di imparare insieme richiede un pizzico di fatica!


NOTE

1. Gli stati di flusso sono stati descritti dallo psicologo Mihaly Csikszentmihalyi, forse il nome più noto nella psicologia positiva. Fra i suoi lavori citiamo il seminale Beyond Boredom and Anxiety: Experiencing Flow in Work and Play, Jossey-Bass, San Francisco, 1975 e la recente raccolta dedicata all’educazione, Applications of Flow in Human Development and Education: The Collected Works of Mihaly Csikszentmihalyi, Springer, Dordrecht 2014.

2. Per approfondimenti, si veda J. Brockman (a cura di), Possible Minds Twenty-Five Ways of Looking at AI, Penguin, 2020.

3. A. Del Rey, La tirannia della valutazione, trad. it. di A. L. Carbone, Elèuthera, Milano 2018.

4. Una storia in merito: Giocare o essere giocati?, in A. Trocchi, Internet, Mon Amour. Cronache prima del crollo di ieri, Seconda giornata: relazioni, Ledizioni, Milano 2019. Integralmente disponibile online https://ima.circex.org.

5. I. Illich, La convivialità, trad. it. di M. Cucchi, Mondadori, Milano, 1973.

Condividi:

Carlo Milani

collabora con alekos.net – tecnologie appropriate e con C.I.R.C.E. (Centro Internazionale di Ricerca per le Convivialità Elettriche) – pedagogia hacker @circex.org.

Altri suoi articoli:

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it