Hacking IA

Tempo di lettura stimato: 13 minuti
Una prospettiva hacker sull’“Intelligenza Artificiale”: come funzionano i Grandi Modelli Linguistici? Dall’inquinamento dell’infosfera all’e-proctoring, vie d’uscita e percorsi possibili. Dal numero 25 de «La ricerca», “Uomini e bot”.
La scuola distopica del futuro, immagine creata con Midjourney.
La scuola distopica del futuro, immagine creata con Midjourney.

Risoluto, il Professore disse: 

Non credo proprio che possa farcela. Voglio dire, a sostituirsi a me, per scrivere una recensione decente. Insomma, va bene, non sarò un genio, ma sono pur sempre meglio di una macchina!

Il Professore ostentava convinzione, eppure nella sua voce si coglieva una certa qual esitazione, che tradiva un dubbio: e se… e se l’Intelligenza Artificiale fosse davvero stata in grado di scrivere una recensione meglio di lui?

Abitava l’ultima casa del paese, abbarbicata sulle pendici terrazzate di una frazioncina del ponente ligure. Confinava con il bosco. Fino a quel momento insieme ai vicini si era organizzato per difendersi da cinghiali, cervi e altri scrocconi di frutti dell’orto, non certo da macchine che minacciavano di rubargli l’impiego o quantomeno di rimpiazzarlo come recensore. La sua specialità erano i saggi di antropologia, sociologia e così via.

Eravamo ospiti per una notte e quella mattina tirava troppo vento per scendere al mare. Così tiravamo in lungo e, fra una chiacchiera e l’altra, immancabile si era aperto il vaso di Pandora delle cosiddette Intelligenze Artificiali, senz’altro non intelligenti in senso tradizionale e nemmeno molto artificiali, vista l’enorme massa di sforzi umani necessari per farle interagire1. Allora andavano particolarmente di moda i Grandi Modelli Linguistici (LLM, Large Language Models) come i modelli della serie GPT (Generative Pre-Trained Transformer). Allenati su enormi masse di dati pescati qua e là sul web, in spregio alle altrimenti onnipresenti e draconiane leggi per la difesa a oltranza del copyright, i modelli delle multinazionali (OpenAI/Microsoft, Google, Meta) si basavano sulla cosiddetta “attenzione”. Niente a che vedere con l’attenzione umana: si tratta di una funzione matematica, una moltiplicazione. In breve, la classe di modelli denominata “trasformatori” (transformers) elabora sequenze di input (ad esempio le sequenze di parole in un testo) in maniera parallela, “pesando” (questi pesi sono coefficienti numerici che vengono moltiplicati fra loro) l’importanza di ogni parola all’interno della sequenza. In questo modo la comprensione del linguaggio naturale, la traduzione da una lingua all’altra, la generazione di testi anche piuttosto lunghi, di riassunti e via dicendo risultava molto più rapida e azzeccata rispetto ai precedenti modelli di apprendimento automatico. Insomma, il prodotto scalare…

Ho capito, cioè non ho capito, ma non importa. Quindi secondo voi funziona.

Il Professore si stava scocciando. Come dargli torto: non è facile seguire una spiegazione semplificata su un argomento del genere, a maggior ragione quando viene proposta da qualcuno come noi che di matematica non capisce poi molto.

Però da una prospettiva hacker si può pur sempre vedere le cose in maniera diversa.

Non è che funziona. Che vuol dire, funziona? Non è in grado di preparare una tisana, ma potrebbe spiegare come farlo a un agente umano, ecco… pur non avendolo mai fatto, certo. E senz’altro potrebbe scrivere una recensione di un libro!

Ma se non l’ha mai letto, il libro! Come fa, inventa?

Inventare non è il termine giusto. Non ha fantasia, un LLM. Però se “inventare” deriva da “invenio”, che in latino significa trovare, possiamo dire che è in grado di trovare una parola giusta dopo l’altra, dove giusta significa “quella con la maggiore probabilità di comparire in compagnia delle altre parole che compongono quella sequenza”. E a quanto pare la probabilità è sufficiente per determinare una sequenza di parole automatica che, agli occhi di un agente umano, hanno un senso compiuto. Dai, proviamo, che ti costa?

Un po’ a malincuore, un po’ incuriosito, il professore si lasciò convincere. Finalmente dopo tante chiacchiere si smanettava un po’!

Avevamo a disposizione il portatile con cui scriveva le recensioni e tutto il resto: articoli originali, libri interi, interventi per convegni e festival. Un vecchio Mac ricevuto come compenso per un lavoro. Una connessione internet scadente. L’accesso a ChatGPT, il LLM targato OpenAI, era appena stato messo a pagamento, quindi era fuori discussione. D’altra parte, Bard, LLM di Alphabet (Google), in quel periodo non era accessibile dal territorio italiano per questioni di privacy ancora in discussione presso le alte sfere. Come fare?

Dai, lasciamo perdere, scrivo la recensione e basta, devo solo leggere il libro, sono trecento pagine buone…

Optammo per una VPN (Virtual Private Network). La nostra preferita era ovviamente TOR, The Onion Router, nella versione semplice del browser. Un’operazione ripetuta talmente tante volte da sfiorare l’automatismo: da torproject.org scaricare il browser adatto al sistema operativo in uso. Installarlo. Lanciare il programma TOR Browser, una versione modificata di Firefox per navigare nel Dark Web, ma, anche, nel web superficiale facendo in modo che la connessione appaia originata da un’altra località. Dopo qualche tentativo, ricaricando diverse volte il sito di Bard, finalmente ci lasciò entrare: la connessione risultava originata dagli Stati Uniti. Necessario un account gmail: nessun problema, ne avevamo uno condiviso per necessità simili.

Ora si trattava di porre la fatidica domanda. «Scrivi una recensione del libro», digitò il professore.

La stellina di Bard girellò per qualche attimo, infine l’oracolo rispose con poche righe striminzite.

Fa schifo. Non ditemi che questa è una recensione!

Il Professore sembrava sollevato. Beh, c’era da lavorare un po’ sul prompt, sulle istruzioni iniziali. Suggerimmo di modificarle aggiungendo un po’ di dettagli sullo stile, il pubblico di riferimento, la tipologia di pubblicazione, le modalità argomentative. «Scrivi una recensione di —, saggio di antropologia pubblicato in lingua italiana nel 2022, tradotto dal francese, tratto dai quaderni di campo dell’antropologo —, facendo riferimento sia alla sua formazione classica, sia alla sua ricerca in ambito sociostorico, con particolare attenzione al gesto filosofico quasi postmoderno implicito nella trattazione», digitò il professore. L’oracolo macinò in pochi secondi una recensione di due cartelle scarse, senza errori ortografici, piuttosto piatta ma decisamente più convincente della precedente.

Non ci posso credere. Funziona! Certo va sistemata ma… potrei scrivere più di una recensione al mese. Anche cinque magari!

Il Professore era passato all’entusiasmo. Poi si oscurò.

Un momento. Ma allora, in miei studenti… Anche loro lo useranno! Che cavolo! Per i compiti a casa! Come faccio adesso?

Dalle stelle alle stalle?

Un testo generato da un LLM prevede un input, in genere un’iniziativa umana, per quanto si può benissimo programmare la generazione di input automatici; d’altra parte, anche la fruizione del testo (o dell’immagine, o del video, o dell’audio) implica un intervento umano, dal momento che non avrebbe senso per una macchina. Una volta affinato l’input i risultati sono stupefacenti e meravigliano anche il Professore. Molte persone esprimono addirittura risentimento quando scoprono che persino algoritmi semplici come il “vicino più prossimo” (nearest neighbour o K-NN) sono capaci di calcolare con notevole precisione le “libere scelte” di agenti umani, come accade nei sistemi di raccomandazione per gli acquisti. Ora, grazie ai trasformer e al loro meccanismo dell’attenzione, gli algoritmi di apprendimento automatico possono gestire un numero straordinariamente grande di parametri in maniera efficiente. Il risentimento dell’umano spesso cresce di fronte a sistemi letteralmente in grado di calcolare la (probabilità della) parola successiva in un testo, in modo che l’insieme delle parole prodotte risultano essere frasi di senso compiuto dal punto di vista umano. La creatività ridotta a calcolo probabilistico, tramite regressioni lineari e logistiche, classificazioni e iterazioni.

Eppure, a uno sguardo più attento, magari sostenuto da una ricerca sull’argomento, o in questo caso dall’effettiva lettura del testo di cui è stata generata la recensione, non di rado si scoprono “errori” surreali, affermazioni deliranti, derive semantiche. Vengono chiamate “allucinazioni” della macchina, termine quanto mai scorretto. Infatti, per un agente umano (come per qualsiasi altro organismo vivente) un’allucinazione è una percezione indipendente da uno stimolo esterno; invece un agente meccanico come un LLM non ha percezioni proprie, ma elabora in maniera probabilistica degli input, ovvero i prompt testuali, i suoi “stimoli esterni”.

Il professore attento, o lo studente scrupoloso, possono individuare queste derive e sistemarle rimettendo mano sul testo generato da un LLM. Ma è facile che l’attenzione dell’umano se ne faccia sfuggire qualcuna. Gradualmente queste “deviazioni”, deliri delle macchine, potrebbero diventare dati di base per nuovi allenamenti dei futuri sistemi, oltre a essere spacciate come informazioni; potrebbero quindi modificare l’infosfera in un modo tale che non sarà più possibile distinguere il vero dal falso, o comunque sarà difficilissimo, richiederà tempi lunghi, analisi minuziose, grande potenza di calcolo e sistemi forensi sempre più complessi. Dalle stelle della creatività umana alle stalle di una lotta tra macchine, fra quelle che delirano e quelle dovrebbero individuare i deliri, con umani inebetiti che cercano vanamente di destreggiarsi, di imbrogliare e arrabattare domande per condizionare sistemi che non comprendono.

Ma è stato mai veramente possibile distinguere il vero dal falso? Noi a C.I.R.C.E.2 riteniamo che sia una questione relativamente poco interessante, e che con la diffusione dei deepfake3 sia più costruttivo concentrarsi sugli aspetti relazionali: da chi vengono le informazioni? Come vengono generate? In che modo influiscono sul nostro umore? Perché facciamo circolare alcune informazioni (testi, immagini, video, audio) e non altre? La nostra proposta si chiama pedagogia hacker, una definizione un po’ pomposa per descrivere una serie di pratiche che condividono un metodo rigoroso ma non serioso, perché imparare a stare nella turbolenza di questo mondo insieme a delle macchine amiche è possibile, ma non banale. Richiede impegno, passione, voglia di mettersi in gioco.

Giochi hacker con le IA

Certo, anche gli studenti useranno gli LLM, anzi, li stanno già usando da un pezzo. Così come tante altre persone. Da hacker, persone amanti delle tecnologie, desiderose di ridurre l’alienazione tecnica4, la questione diventa: quali LLM? Esistono sistemi liberi, non sviluppati da multinazionali avide, rispettosi della privacy, ispezionabili? È possibile creare sistemi non esosi dal punto di vista dell’energia necessaria per allenarli e per renderli disponibili? Se le risposte a queste domande sono decisamente “NO”, o tendenzialmente “NO”, è difficile immaginare che le IA possano essere partecipi di giochi hacker.

Ci sono però senz’altro alcune cose che possiamo fare, come singoli e soprattutto come gruppi di affinità, per forzare l’evoluzione in una direzione a noi congeniale.

Innanzitutto, l’immaginazione. Non esiste gioco appassionante senza immaginazione, capace di suscitare un immaginario condiviso. Nel gioco delle domande e risposte, della documentazione, dei riassunti, dell’enunciazione di regole, gli LLM possono dare risultati eccellenti, con prompt adeguati. Nella scrittura creativa, fantasia a briglia sciolta, storie che vale la pena di scrivere e leggere… no, davvero no. Forse non ancora, ma ricordiamolo: l’immaginazione non è semplice estrapolazione di probabilità.

Sì, ma il problema degli studenti rimane, ci ricorda il Professore. Vero. Vietare il ricorso a LLM in classe, durante gli esami? Le proibizioni non hanno mai risolto nulla e anzi solitamente contribuiscono a esacerbare la voglia di avere a che fare con il proibito; tuttavia, accogliere a braccia aperte queste sedicenti novità nell’ambito scolastico e accademico non ci sembra un atteggiamento ragionevole. Non tanto perché renderanno le persone meno competenti, quanto perché sono sistemi industriali, inquinanti, chiusi, estremamente energivori, al servizio di padroni senza scrupoli che, dopo aver saccheggiato il web, ora chiedono agli Stati di legiferare per limitare la ricerca. Politiche di limitazione dovrebbero essere la regola, non l’eccezione, ma ormai i buoi sono lontani, l’avventura degli LLM nel mondo è cominciata e chiudere le stalle ora sarebbe una beffa.

Vietato vietare! Durante l’epidemia di COVID-19 molte istituzioni scolastiche e universitarie, specialmente negli USA, hanno adottato sistemi di controllo per sanzionare gli studenti che staccano gli occhi dalle telecamere dei loro computer durante una prova d’esame o persino durante le lezioni: pratiche basate su software proprietario, lesive della privacy, vessatorie e discriminatorie note come e-proctoring. Rimandiamo al sito baneproctoring.com per una panoramica e approfondimenti in merito [e all’articolo di Simon Coghlan, Tim Miller, Jeannie Paterson contenuto nel Dossier di questo numero, dal titolo Il proctoring: una risorsa o il Grande Fratello?, N.d.R.].

Sempre in tema di divieti, che comportano spese ingenti, stravolgimento di procedure consolidate e sforzi continui per inseguire le innovazioni, i sistemi anti-plagio si stanno diffondendo a macchia d’olio. Ma ora, con l’introduzione degli LLM, l’unica possibilità è far ricorso ad altri sistemi analoghi in grado di individuare, con un certo grado di probabilità, se l’elaborato è farina del sacco dello studente o c’è di mezzo un LLM. Insomma, l’unica possibilità è affidarsi agli stessi sistemi che si vorrebbero bandire per smascherare le frodi.

Proponiamo allora, per chi ha voglia di giocare invece di vietare, un piccolo hack per scongiurare, almeno in alcune occasioni, l’impiego di LLM per rispondere a domande d’esame.

Facciamo ricorso a una delle nostre tecnologie conviviali d’elezione: il pad, lavagna via web. Il sistema può essere installato sui server della scuola, modificato opportunamente, oppure fruito su installazioni remote. A ogni studente viene fornito un link che conduce alla sua lavagna personale. Le regole del gioco sono semplici: l’elaborato va scritto direttamente sulla lavagna tramite tastiera. La lavagna, viene spiegato, è in grado di individuare se si tratta di un agente umano oppure no. Il copia-incolla di brani non è consentito: non è impedito a livello tecnico, ma viene considerato frutto di automazione.

Questo sistema è di semplice implementazione ed estremamente efficace. Stiamo lavorando a una versione appositamente programmata per questo caso d’uso, che verrà rilasciata pubblicamente sotto licenza libera entro la fine del 2023. Si prende in considerazione la genesi del testo, discriminando gli agenti in grado di digitare una lettera alla volta, tramite una tastiera, da quelli, come gli LLM, che non sono in grado di farlo e fanno “cadere” parole intere.

E se uno studente copiasse un elaborato automatico? Tutto è possibile, ma anche in questo caso, basterebbe un’occhiata alla genesi delle parole che compaiono sullo schermo per rendersi conto della prosodia, del particolare ritmo con cui compaiono. Gli umani non scrivono in maniera regolare, ma sincopata. Cancellano, ci ripensano, modificano. Gli LLM, invece, non esitano. Forse in futuro ci si prenderà la briga di programmare gli LLM per esitare, cancellare e modificare, ma per ora non sono in grado di farlo, perciò il pad è un’eccellente, semplice, robusta tecnologia conviviale, rispettosa della privacy, e quindi della legislazione europea in materia, il famigerato GDPR attualmente non rispettato da nessuno dei giganti dell’IT, tanto meno dagli LLM di loro produzione.

In questo senso, ci piacerebbe maggiore inventiva da parte di chi formula le domande per testare le conoscenze. Una scaletta per un articolo o per un libro, con i passaggi chiave da esplodere e indicando gli autori fondamentali a cui si farà riferimento, è molto più difficile da far produrre a un LLM rispetto a domande puntuali che richiedono di ripetere nozioni. Per far buoni discenti ci vogliono buoni docenti, disposti a esplorare insieme, in compagnia di tecnologie affini.

Le cosiddette IA, come ogni altra tecnologia, dicono molto di noi, del nostro modo di relazionarci con il mondo circostante, con gli esseri simili a noi e con quelli molto diversi. Nella relazione con l’Altro scopriamo chi siamo. Questa è la pedagogia hacker.

Attendiamo le vostre idee e suggerimenti5!


NOTE

  1. Si veda C. Milani, V. García, L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco, in «Mondo Digitale», 1-23, consultabile all’indirizzo https://zenodo.org/record/7737430.
  2. Il sito è circex.org.
  3. Si vedano i racconti di Agnese Trocchi La prova provata, 2021 https://ima.circex.org/storie/8-bonus/c-buone-pratiche-deepfake.html e Free the Droids Now, 2023 https://circex.org/it/news/free-the-droids-now.
  4. Si veda C. Milani, Tecnologie conviviali, elèuthera, Milano 2022, https://tc.eleuthera.it.
  5. Che potete inviare a info@circex.org.
Condividi:

Agnese Trocchi

è artista multimediale, scrittrice e formatrice. Curiosa da sempre delle nostre relazioni con le tecnologie analogiche e digitali, ha esposto in eventi e gallerie in tutto il mondo le sue opere di videoarte e di net.art. È Digital Communication Manager presso il Disruption Network Lab di Berlino. Dal 2017 collabora con il gruppo C.I.R.C.E. con cui organizza e conduce laboratori di Pedagogia Hacker. Nel 2019 ha pubblicato con Ledizioni il libro “Internet, Mon Amour”.

Carlo Milani

collabora con alekos.net – tecnologie appropriate e con C.I.R.C.E. (Centro Internazionale di Ricerca per le Convivialità Elettriche) – pedagogia hacker @circex.org.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it