Per una comprensione sobrIA#1: cambiare approccio

Tempo di lettura stimato: 4 minuti
Una riflessione in tre parti, lucida e senza illusioni, sull’infrastruttura logistica della conoscenza, per arrivare a un suo uso autonomo ed emancipato. Prima parte: le parole (e le concettualizzazioni) sono importanti.
Immagine esornativa di cyborg
Immagine elaborata con GPT.

“Intelligenza artificiale (generativa)” è a mio giudizio una formulazione da accantonare al più presto. Non è un caso che Katz[1] parli della nebulosità del concetto, che Esposito[2] addirittura proponeva di sostituire con “comunicazione artificiale”. O ancora che la traduzione in italiano del titolo originale del libro di Crawford[3] inizi con Né intelligente, né artificiale.

Abbandonare al suo destino di marketing lessicale l’idea di dispositivi intelligenti non ci autorizza però a dimenticare di aver accettato e condiviso questa espressione. E che molti si sono dilettati, nei quasi tre anni passati dallo sbarco nell’immaginario globale di ChatGPT, a dimostrare sapientemente – e in qualche caso saputamente – che “le macchine/i computer non pensano” e/o che “quella non è intelligenza” e così via, con mille varianti compiaciutamente astratte, nell’illusione di ricondurre ciò che avveniva sotto il proprio controllo intellettuale e operativo.

Aver perso tempo ed energie a ribadire un concetto che avrebbe dovuto essere un punto di partenza e non un punto d’arrivo del dibattito pubblico, insomma, non può essere oggetto di oblio auto-assolutorio.

Bisogna invece ammettere che essersi accaniti a dimostrare qualcosa di scontato si è tradotto fino a ora in una sterilità culturale opprimente. È infatti sufficiente leggere il primo libro della trilogia di Cristianini[4] per capire che si tratta di macchine statistico-predittive, le quali:

  • sono in grado di agire in un ambiente raccogliendo dati e utilizzando modelli e correlazioni frutto di addestramento, verifica e feedback di coloro che le mettono alla prova;
  • producono, mediante computazioni sempre più sofisticate, esiti sempre più plausibilmente assimilabili a quelli che nella medesima situazione potrebbero raggiungere gli esseri umani;
  • non riproducono però processi cognitivi tipici di questi ultimi, opzione a cui le aziende e i centri di ricerca e sviluppo interessati hanno anzi rinunciato, a favore delle regolarità statistiche ricavabili dal trattamento dei BigData.

Da qui la pars costruens della mia proposta: andare intenzionalmente oltre concettualizzazioni trivializzate, per considerare invece ciò che si è andato concretamente strutturando in un mutato rapporto con il sapere e i saperi. Ovvero inquadrare – finalmente – e descrivere la diffusione di una sempre più articolata e pervasiva infrastruttura logistica della conoscenza, in costante perfezionamento della coerenza statistica e dell’ottimizzazione funzionale, a evidente vocazione capitalistica e pertanto estrattiva di valore ed energivora, oltre che appannaggio esclusivo di oligopoli.

Rapportarsi con la concretezza, la “materialità” dell’infrastruttura logistica, tipica di un’epoca e di un modello socio-economico, può e deve sfociare nell’attivazione consapevole di una comprensione sobria, ovvero radicalmente critica, ma de-polarizzata, analitica e multifattoriale, lontana da slogan e formule riduttive, tesa invece a elaborare lessico autonomo e quadri concettuali emancipanti.

Adottare questo punto di vista consente di e costringe a riflettere con voluta precisione su come sono cambiati e stanno ulteriormente modificandosi i flussi digitali di circolazione, accumulazione, organizzazione e ridistribuzione della conoscenza, in istruzione, produzione di contenuti per il mercato dell’attenzione, attività intellettuale vera e propria, aspetti cognitivi generali e trasversali del lavoro. ­­­

Se infatti dal novembre 2022 a oggi la logica di fondo degli apparati, ovvero la cattura e modellizzazione della conoscenza collettiva a fini di profitto, è rimasta la medesima, le funzionalità dedicate a estrarre valore mediante fornitura di servizi generativi sono state ampliate dal punto di vista quantitativo e raffinate da quello qualitativo.

(segue)


Note

[1] Y. Katz, Artificial Whiteness. Politics and Ideology in Artificial Intelligence, Columbia University Press, NY 2020.

[2] E. Esposito, Artificial Communication: How Algorithms Produce Social Intelligence, MIT Press, 2022.

[3] K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, trad. it. di G. Arganese, il Mulino, Bologna 2021.

[4] N. Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, il Mulino, Bologna 2023.

Condividi:
Marco Guastavigna

Insegnante nella scuola secondaria di secondo grado e formatore. Tiene traccia della sua attività intellettuale in www.noiosito.it.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it