La coscienza morale delle auto intelligenti

Le auto intelligenti sanno compiere delle scelte morali? Nel tentativo di esplorare i dilemmi etici coinvolti in questo scenario, lo Scalable Cooperation Group del MIT Media Lab ha creato #MoralMachine, una piattaforma online per la raccolta di dati su larga scala che nell’arco di 2 anni ha raccolto quasi 40 milioni di risposte. Ecco i risultati.

Immaginate un vagone che viaggia su un binario. Su quello stesso binario stanno lavorando 5 operai, e verranno investiti se il vagone non cambia direzione. Voi vi trovate accanto al binario, di fronte a una leva di cambio che vi permette di dirottare il vagone verso un altro binario su cui si trova un altro uomo.

Tirando la leva, salvereste i cinque operai uccidendone uno.

Tirereste la leva? Quanto reputereste questo un gesto moralmente accettabile?

Nel rispondere a questa domanda, vi trovate di fronte a un dilemma morale, nello specifico si tratta del dilemma del carrello ferroviario, che rappresenta un conflitto d’obbligo: qualsiasi sia la scelta del soggetto, viene comunque violato un obbligo morale e attribuita una colpa inevitabile al decisore (Manfrinati et al. 2013). Una serie di questi dilemmi può essere utilizzata per valutare la moralità di un soggetto.

Ognuno di noi deve prendere una decisione in base alla propria moralità e sentirsi responsabile per la propria scelta.

Tendiamo a pensare che il possedere una coscienza morale sia un privilegio della nostra specie, e prendiamo decisioni basandoci sulla nostra etica. E se, in un futuro non troppo lontano, le scelte morali non fossero più una prerogativa degli uomini?

Da alcuni anni, i colossi dell’hi-tech stanno investendo risorse e competenze nello sviluppo delle self driving cars, veicoli che, grazie ai progressi dell’intelligenza artificiale, saranno capaci di compiere spostamenti con una percezione autonoma dell’ambiente che li circonda e con il minimo ausilio dell’essere umano.

Ma cosa succederà quando, di fronte a uno scenario critico, una macchina dovrà compiere una scelta morale, valutando autonomamente chi salvare e chi uccidere? Tirerà la leva o resterà a guardare?

Per rispondere a questa domanda, gli scienziati dello Scalable Operation Group del Massachusetts Institute of Technology (MIT) si sono messi alla ricerca di un codice morale universale: un set di regole da poter insegnare a una macchina per renderla in grado di compiere autonomamente scelte etiche.

A tale scopo è stata quindi lanciata la Moral Machine (moralmachine.net), una piattaforma online per la raccolta su larga scala di dati concernenti le scelte morali. L’obiettivo della ricerca è stato quello di coinvolgere nel dibattito sui principi etici e morali che guideranno (in tutti i sensi) le self driving cars una platea globale di utenti, non più circoscritta alla sfera professionale delle neuroscienze e dell’intelligenza artificiale.

 

Come funziona la Moral Machine

La piattaforma propone 13 diversi scenari, simili al dilemma del carrello ferroviario, concernenti incidenti in cui la morte di una o più persone risulta inevitabile. L’utente che partecipa al sondaggio deve quindi scegliere chi risparmiare e chi sacrificare nel contesto di situazioni generate a partire da 9 fattori di preferenza:
1. risparmiare gli esseri umani o risparmiare gli animali;
2. rimanere nella propria corsia o invadere l’altra;
3. risparmiare i passeggeri o risparmiare i pedoni;
4. risparmiare il maggior numero possibile di vite;
5. risparmiare gli uomini o risparmiare le donne;
6. risparmiare i giovani o risparmiare i vecchi;
7. risparmiare chi attraversa sulle strisce;
8. risparmiare i magri o risparmiare i grassi;
9. risparmiare le persone appartenenti a una classe sociale più alta.

Questa immagine riporta uno dei quesiti presentati nel sito moralmachine.net, in cui il soggetto può decidere se intraprendere la scelta A – ovvero risparmiare i passeggeri e uccidere i pedoni – oppure la scelta B, in cui i passeggeri vengono sacrificati per salvare i pedoni.

Per ogni scenario è possibile visualizzare una descrizione in grado di offrire un contesto dettagliato, utile a una più consapevole scelta.

Al termine del sondaggio, l’utente è tenuto a compilare una scheda anagrafica per raccogliere informazioni su età, sesso, stipendio, grado di educazione, religione e preferenze politiche. Tutti i partecipanti vengono inoltre geolocalizzati, così da permettere analisi su dati raggruppati secondo cluster geografici che hanno manifestato preferenze morali simili.

I risultati dell’esperimento sociale

Nell’arco di 18 mesi l’esperimento sociale del MIT ha raccolto 40 milioni di preferenze in cento lingue, coinvolgendo milioni di persone provenienti da 233 paesi. I risultati di tale indagine sono stati pubblicati sulla rivista Nature.

A una prima analisi è emerso che tendenzialmente i partecipanti, indipendentemente da sesso, età e provenienza, preferiscono risparmiare gli esseri umani piuttosto che gli animali, i giovani piuttosto che gli anziani e i gruppi più numerosi di persone.

Suddividendo le preferenze secondo cluster geografici – utilizzando i dati di 130 nazioni con almeno 100 utenti – i ricercatori del MIT hanno però evidenziato profonde differenze legate al contesto socioculturale di provenienza; tali differenze hanno permesso di suddividere le nazioni in tre distinti cluster geografico/culturali:

  1. Un cluster occidentale (Western Cluster), contenente il Nord America e molte nazioni europee permeate dalla cultura cattolica;
  2. Un cluster orientale (Eastern Cluster), contenente nazioni come Giappone, Pakistan e Indonesia, con un retroterra culturale di stampo musulmano o confuciano;
  3. Un cluster meridionale (Southern Cluster), formato dalle nazioni dell’America centro-meridionale, dalla Francia e dalle sue ex colonie.

Ulteriori analisi hanno evidenziato profonde correlazioni tra scelte morali e fattori economici e sociali:

  • Paesi con un radicato senso di obbedienza e fiducia nei confronti delle istituzioni governative, come Finlandia e Giappone, hanno manifestato una maggiore volontà di risparmiare chi rispetta il codice della strada, attraversando sulle strisce oppure aspettando il semaforo verde per occupare la carreggiata;
  • Paesi in cui prevalgono culture individualiste, portate a enfatizzare le peculiarità del singolo, hanno manifestato una maggiore volontà di risparmiare il maggior numero di persone possibile;
  • Paesi in cui prevalgono culture collettivistiche, basate sul rispetto per i membri più anziani della comunità, hanno manifestato una sostanziale parità di preferenze nei contesti in cui il discrimine era rappresentato dall’età delle persone coinvolte;
  • Paesi con una forte disparità economica e sociale, come la Colombia, hanno manifestato una maggiore volontà di risparmiare i membri delle classi più abbienti, sacrificando senzatetto e persone con profili a basso reddito.

Nonostante lo scetticismo di alcuni membri della comunità scientifica, che hanno giudicato l’esperimento irrealistico poiché basato unicamente sulla rappresentazione di situazioni estreme e perciò rare, il quadro emerso dai risultati della Moral Machine risulta essere estremamente eterogeneo.

Cosa ci dice la Moral Machine sulle scelte morali?

L’esperimento, partito con l’idea di ricercare un codice morale universale e adattabile a qualunque situazione, ha fatto emergere quanto ciò sia più che altro un’utopia. Questa conclusione non era totalmente inaspettata per molti studiosi della mente umana.

I neuroscienziati oggigiorno possono studiare esattamente cosa avviene nel nostro cervello durante un processo decisionale che coinvolge la moralità, come nel caso del dilemma descritto all’inizio. Dal momento in cui ci viene posta una domanda, viene attivata una fittissima rete di connessioni neurali che coinvolge diverse aree del nostro cervello, chiamate solitamente a svolgere altri processi cognitivi. Queste aree si estendono sia nel “cervello razionale”, sia nel “cervello emotivo”, ovvero la parte che gestisce le nostre emozioni, e sono costrette a lavorare in simultanea per risolvere un dilemma. La formazione e l’attivazione di questa rete neurale dipendono da vari fattori, che determinano di conseguenza anche il prodotto di queste connessioni: in questo caso, la scelta morale. Questi fattori possono essere di tipo intrinseco, come la genetica, o ambientale, come ad esempio la cultura, l’educazione e le esperienze personali.

Un altro punto da non sottovalutare è la funzione che ha la morale dal punto di vista evoluzionistico: la moralità è una prerogativa dell’essere umano e si è evoluta con lo stesso, passando dall’essere un istinto di sopravvivenza del singolo fino ad adattarsi alla complessa socialità che riguarda la nostra specie. Molti neuroscienziati, infatti, ritengono che a determinare una decisione morale non sia solo il beneficio che questa possa portare all’individuo, ma anche l’impatto sociale che questa avrà, ovvero la considerazione che le persone del nostro gruppo avranno di noi dopo aver agito. Per esempio, è importante come un’azione possa essere considerata moralmente accettabile da qualcuno, mentre può risultare deplorevole a qualcun altro; ciò dipende dalla struttura sociale in cui si trova inserito l’individuo.

Immaginate di inserire tutte queste variabili in una macchina, per insegnarle ad agire in particolari situazioni che richiedono un’etica e una moralità ben determinate. Le decisioni prese dall’intelligenza artificiale, pur risultando libere da tutti quei fattori in grado di penalizzare un processo di scelta razionale (effetto sorpresa, istinto di sopravvivenza…), sarebbero considerate giuste dalla platea globale degli esseri umani?

Pensate al caso di un incidente mortale in cui l’auto intelligente decide di sacrificare 3 passeggeri per salvare 5 pedoni; e in cui poi si venisse a sapere che tra i passeggeri vi era un bambino che la macchina ha deciso di sacrificare, magari per salvare un numero maggiore di persone. Le ripercussioni sociali non rischierebbero di far perdere immediatamente la fiducia in questo nuovo mezzo di locomozione?

L’intelligenza artificiale è un’innovazione molto importante in ambito tecnologico e sociale, che sta rivoluzionando impensabilmente ambiti come la medicina (ad esempio nelle diagnosi di malattie dermatologiche), o in quello della cyber security.

Ma per quanto riguarda l’avere una coscienza, la supremazia resta ancora dell’essere umano.


Bibliografia

Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., … & Rahwan, I. (2018). The moral machine experiment. Nature, 563(7729), 59-64.

Maxmen, A. (2018). Self-driving car dilemmas reveal that moral choices are not universal. Nature, 562(7728), 469-469.

Irene Feliciotti

Da biologa con un amore innato per la scienza, mi sono trovata essere una dottoranda in Biologia Strutturale all’Università di Reading (UK) per studiare da vicino – anzi, vicinissimo –la struttura di alcuni enzimi. Mi sono occupata di Ecotossicologia all’Università di Perugia, di Neurobiologia e Genetica del comportamento all’Università di Pisa, di Neurogenetica all’Università di St. Andrews (Scozia) e di Biologia Strutturale applicata ai prebiotici e probiotici a Reading (Inghilterra).
Ma quando il lavoro è anche una passione, si finisce con il volerlo diffondere ovunque; quindi ho fatto lezione di neuroscienze a scuola, ho partecipato ad eventi sulla comunicazione della scienza e attualmente mi occupo di divulgazione scientifica con Minerva – La scienza al servizio del cittadino.

Tommaso Dringoli

Ingegnere informatico (quasi) pentito con un amore incondizionato per i romanzi americani e la musica rumorosa. Mi occupo di redazione scientifica per Loescher Editore – consapevole che la matematica è un rito di passaggio a volte molto doloroso – e di accessibilità editoriale per Fondazione LIA.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it