La medicina intelligente

Tempo di lettura stimato: 16 minuti
Gli sviluppi della tecnologia e dell’intelligenza artificiale al servizio degli operatori della salute e dei pazienti: le due facce della stessa medaglia.

Da sempre la pratica medica e quella chirurgica si sono avvalse di strumenti per la diagnosi e per la cura, che dai tempi di Ippocrate a oggi sono divenuti sempre più sofisticati e precisi.
Viene spontaneo pensare che l’intelligenza artificiale (IA) sia una fisiologica evoluzione del progresso tecnico-scientifico, ed è quindi lecito considerarla come uno strumento moderno.
Dobbiamo tuttavia operare una fondamentale distinzione tra gli strumenti che hanno reso possibile e agevolato la pratica della medicina sino ad ora e la IA.

Classificando le tecnologie come di primo ordine, quelle che si interpongono direttamente tra il medico e la natura (come ad esempio lo stetoscopio o lo sfigmomanometro) o di secondo ordine, ossia quelle che stanno tra medico ed un’altra tecnologia (ad esempio un braccio meccanico alimentato da un motore) abbiamo tecnologie su cui opera in modo diretto l’azione umana. La IA è invece definita una tecnologia di terzo ordine, ossia una tecnologia che sta tra una tecnologia e un’altra e sul cui processo potremmo anche non avere il controllo1.

 

Pensiamo dunque alla IA come a un programma informatico che interpreta ed elabora dei dati ottenuti da altre macchine e da altri programmi. In questa separazione dell’uomo dal processo di elaborazione di un risultato da parte della macchina viene identificata una delle principali insidie della IA.
La IA è stata definita in molti modi, e non vi è una definizione su cui tutti concordino. Nell’immaginario comune e nella pratica quotidiana la sperimentiamo già sotto forma di tecnologie capaci di svolgere rapidamente dei compiti complessi, che richiedono generalmente più tempo all’essere umano per essere elaborati, e pertanto vengono definite intelligenti. Su questo punto è necessario aprire una parentesi su cosa si intende per intelligenza.

Per alcuni la IA rappresenta l’unione tra l’azione di una macchina e il comportamento intelligente nel produrre un risultato, ma in realtà è il contrario: nell’utilizzo della tecnologia di IA vi è una separazione tra la capacità di risolvere un compito e l’esigenza di essere intelligenti per farlo. Non appena l’IA può eseguire un compito particolare, quel compito stesso non è più definito intelligente. La separazione tra agire e intelligenza produce conseguenze importanti con sfide etiche di grande portata2.

Anche in medicina non vi è ambito che non stia subendo qualche trasformazione a opera delle tecnologie più evolute attraverso la IA. Prendiamo ad esempio l’area della dermatologia: i software di intelligenza artificiale sono in grado di identificare con elevata accuratezza una lesione cutanea maligna, confrontandola con un database che gli sia stato precedentemente fornito. Non è un futuro fantascientifico, ma una realtà emergente quella in cui il chirurgo opera indossando degli occhiali tecnologici che gli consentono una visione aumentata della realtà (augmented reality), grazie ad una sovrapposizione virtuale delle immagini radiologiche del paziente che sta operando sulla zona anatomica su cui interviene.

Anche in psichiatria sono già noti gli effetti positivi che l’immersione del paziente e del terapeuta in un ambiente di realtà virtuale (virtual reality) crea per entrambi. Se da una parte il paziente sperimenta in sicurezza gli ambienti virtuali nei quali intraprende il percorso terapeutico, dall’altra parte anche il medico si può sentire rassicurato nell’agire in uno spazio virtuale, dove è praticamente inesistente il suo rischio occupazionale, che invece è spesso presente negli incontri reali con il paziente psichiatrico.

Gli ambienti virtuali in cui la realtà viene riprodotta fedelmente sono detti mondi specchio (mirror worlds) e in essi i pazienti e i medici possono esplorare, interagire e sperimentare la rappresentazione digitale fedelmente ricreata del mondo reale in modi nuovi e significativi.

La creazione di questi mondi specchio ha effetti potenziali anche nell’insegnamento in ambito medico. Immersi in un ambiente virtuale, gli studenti possono simulare e apprendere come eseguire gli interventi chirurgici o le procedure di soccorso e possono esercitarsi così a gestire le situazioni reali senza alcun rischio per i pazienti e senza praticamente limiti alla numerosità dei discenti che possano partecipare alle simulazioni nelle sale operatorie virtuali.

Realtà aumentata e realtà virtuale sono solo alcuni degli aspetti nuovi ed emergenti dell’utilizzo dell’intelligenza artificiale in ambito medico e chirurgico.

Anche l’utilizzo di algoritmi è una forma di IA. Per ottenere diagnosi più rapide e precise vengono utilizzate delle reti neurali, conosciute anche come reti neurali artificiali (RNA), che sono un tipo di modello computazionale che si ispira al funzionamento del cervello umano.

Tali reti sono impiegate nell’ambito nell’apprendimento automatico dell’intelligenza artificiale, il machine learning, che le consente di svolgere diverse funzioni come ad esempio la classificazione delle immagini. Le reti neurali sono composte da unità di calcolo dette neuroni artificiali o “perceptroni” organizzati in strati, che attraverso connessioni tra loro apprendono dai dati in modo da poter fare previsioni o compiere decisioni basate sugli input forniti. Quindi l’apprendimento avviene attraverso l’addestramento della rete neurale su un insieme di dati.

Grazie alla vasta quantità di dati medici disponibili, le reti neurali possono ad esempio analizzare i sintomi dei pazienti e confrontarli con un database di casi precedenti, aiutando i medici a identificare patologie complesse.

In campo radiologico, ad esempio, esistono dei software in grado di analizzare la radiografia di un paziente e definire con accuratezza la presenza di una frattura di un osso in quell’immagine radiografica. Questo tipo di strumento allo stato attuale non può ancora sostituire la competenza di un medico specialista nel formulare la diagnosi di frattura, ma può comunque fornirgli un supporto, ad esempio nelle situazioni di forte stress lavorativo quando lo specialista debba sostenere un grande carico di lavoro in condizioni disagiate, come ad esempio nei turni di Pronto Soccorso, specie notturni.

La tecnologia intelligente deve quindi essere intesa e utilizzata come uno strumento che affianca il medico e lo sostiene nelle situazioni di particolare complessità o in caso di sovraccarico lavorativo.

Analoghe considerazioni possono essere svolte a riguardo dei modelli linguistici generativi o LLM (Large Language Model), tra i quali vi è il chatbot ChatGPT di OpenAI.

I modelli linguistici sono programmi in grado di generare testi, immagini e algoritmi basandosi su dati con i quali sono stati precedentemente addestrati (Generative Pre-trained Transformer).

Qualche mese fa, mentre presentavo una relazione sulle tecnologie intelligenti e le possibili applicazioni in ambito medico radiologico, ho condiviso la definizione che ha dato ChatGPT quando l’ho interrogato chiedendogli di definire sé stesso e le sue funzioni:

Sono un programma di intelligenza artificiale crea-
to per elaborare il linguaggio naturale e fornire risposte basate su testo a una vasta gamma di domande. La mia “intelligenza” è basata su algoritmi di apprendimento automatico e su un vasto corpus di testo da cui ho imparato. Sono in grado di elaborare informazioni e generare risposte in modo efficiente, ma la mia “intelligenza” è limitata alla mia programmazione e ai dati di cui sono stato addestrato […] Sono qui per fornire supporto e informazioni utili, ma è sempre consigliabile verificare le informazioni critiche o importanti in fonti affidabili.

Ci tengo a sottolineare che la parola  “intelligenza”  tra virgolette è opera del programma stesso.

Il mio atteggiamento è quantomeno cauto nel sostenere a priori questo tipo di intelligenza artificiale; essa stessa mette in guardia dal farne un uso acritico e senza una verifica delle fonti.

D’altro canto, questo programma ha mostrato ampie potenzialità, basti pensare che è stato in grado di superare il test di abilitazione all’esercizio della pratica medica negli Stati Uniti (United States Medical Licensing Exam o USMLE).

Inoltre, in un recente studio traversale, il chatbot ha generato risposte empatiche e di qualità alle domande dei pazienti poste in un forum online. Un team di medici esaminatori, confrontando le risposte del programma con quelle dei medici, ha giudicato significativamente più empatiche le risposte del chatbot rispetto alle seconde3. Questo può risultare sorprendente, perché sappiamo che l’IA non è dotata di empatia, ma genera risposte associando parole e frasi tramite le quali è stata precedentemente addestrata.

Sarebbe interessante sapere se i risultati ottenuti in questo articolo cambierebbero qualora l’utenza o chi giudica la qualità delle risposte fosse al corrente di dialogare con un computer e non con un essere umano. I chatbot stanno cambiando il modo in cui le persone accedono alle informazioni in ambito della salute. Le persone interrogano il chatbot e pongono domande sui propri sintomi, possono ricevere consigli preliminari e persino programmare gli appuntamenti con i medici. Si può pensare che questa immediata accessibilità che il chatbot offre al paziente possa anche promuovere un’educazione alla salute, poiché i pazienti sono più motivati a cercare assistenza quando dispongono di risposte immediate.

L’utilizzo di ChatGPT nelle comunicazioni a distanza, come ad esempio nella messaggistica tra medico e paziente, potrebbe divenire una risorsa per quei pazienti con limitazioni di mobilità o con orari di lavoro irregolari. La messaggistica computerizzata, inoltre, potrebbe avere effetti positivi sul comportamento sanitario della popolazione, come ad esempio nell’aderenza alla terapia farmacologica o alle diete e una riduzione di appuntamenti mancati con il clinico4.

In un articolo pubblicato sul «Journal of Clinical Neurology» sono stati elogiati i rapidi progressi di ChatGPT e il suo ruolo nell’affrontare sfide come gli errori di diagnosi. In questo lavoro si ipotizza una situazione in cui un paziente manifesti dei sintomi complessi per una diagnosi da parte di un medico di medicina generale: il medico potrebbe essere incerto sulla causa dei sintomi, ma comunque desideroso di fornire al paziente la migliore cura possibile. In questo contesto, il medico potrebbe utilizzare ChatGPT, fornendo al chatbot una descrizione dettagliata dei sintomi, della storia clinica e di eventuali esiti di esami del paziente. La IA elaborerebbe le informazioni per generare una risposta di suggerimento di potenziali diagnosi o di ulteriori indagini da effettuare. I suggerimenti forniti si dovrebbero basare sulla vasta conoscenza della letteratura medica, delle linee guida cliniche e dei casi simili precedenti con cui la IA dovrebbe essere stata addestrata precedentemente. Attraverso l’assistenza di ChatGPT il medico si potrebbe trovare dinanzi a prospettive e suggerimenti diversi, magari non considerati inizialmente e quindi dovrebbe esaminarli, valutarli in base alla sua esperienza e infine prendere una decisione informata sui passi successivi nella diagnosi e nel trattamento5.

In questo esempio, ChatGPT potrebbe essere considerato uno strumento di supporto, che migliora la conoscenza e il processo decisionale del medico. È importante sottolineare che comunque la decisione diagnostica e terapeutica finale spetta al medico.

Nonostante le promettenti applicazioni di Chat-
GPT nella sanità, è essenziale affrontare le sfide in ambito etico che essa comporta.

La prima sfida o potenziale criticità del programma riguarda la privacy dei dati: è fondamentale che i dati medici sensibili dei pazienti siano protetti e gestiti con la massima attenzione e sicurezza.

Una seconda criticità riguarda i possibili errori di giudizio: i sistemi basati su IA possono commettere errori nella diagnosi o nelle raccomandazioni di trattamento, pertanto è necessario aggiornare e migliorare continuamente la qualità dei dati di addestramento e implementare la collaborazione tra l’IA e gli esseri umani in modo che i medici siano assistiti dall’IA pur mantenendo l’autorità finale nella presa di decisioni.

Un’ulteriore problematica è quella dei bias e dell’equità: i sistemi basati su IA possono ereditare i bias presenti nei dati di addestramento, portando potenzialmente a un trattamento ingiusto di certe popolazioni di pazienti. È essenziale identificare e mitigare i bias nei modelli di IA per garantire risultati sanitari equi.

Infine vi è la problematica della responsabilità: devono essere stabilite chiaramente delle linee guida che determinino chi è responsabile degli errori e degli esiti avversi legati alle decisioni sanitarie assistite da IA.

Il bilanciamento della responsabilità tra gli sviluppatori di IA, i medici e le istituzioni è indispensabile per creare un rapporto di fiducia nella sanità basata sull’IA.

Attualmente sono due i principali problemi riguardo al ruolo di ChatGPT in campo sanitario: l’allucinazione e la dipendenza. L’allucinazione si riferisce alla generazione di informazioni inaccurate o false da parte dei sistemi basati su IA. In ambito sanitario questo può essere ovviamente particolarmente problematico, poiché potrebbe portare l’IA a fornire ai professionisti sanitari diagnosi o informazioni errate o raccomandazioni di trattamento sbagliate. Il problema dell’allucinazione in ChatGPT deriva dalla sua natura generativa e dalla rete neurale che è stata progettata per generare un testo in base ai modelli presenti nei dati di addestramento. Affrontare l’allucinazione nell’applicazione di ChatGPT in ambito sanitario richiede che il modello sia attentamente addestrato e regolato per garantire informazioni affidabili e accurate. L’introduzione del controllo e della supervisione umana nel processo decisionale assistito dall’IA può contribuire a mitigare questo rischio di allucinazione. I medici dovranno però abituarsi a valutare sempre criticamente le risposte di ChatGPT e a esercitare il loro giudizio per garantire che le informazioni generate siano adeguate.

Il problema della dipendenza dagli algoritmi di IA invece si verifica laddove i clinici meno esperti si affidino eccessivamente ai sistemi basati su IA nel prendere le decisioni: ciò può ridurre ulteriormente le loro competenze cliniche e la loro formazione medica.

Laddove i medici si affidino esclusivamente agli algoritmi di IA, senza comprenderne appieno i principi sottostanti o senza impegnarsi in un ragionamento clinico indipendente, potrebbero crearsi situazioni di potenziale compromissione della sicurezza dei pazienti e di limitazione dello sviluppo della conoscenza medica6.

L’IA dunque può fornire suggerimenti utili e valido supporto nella presa di decisioni in ambito medico, ma è fondamentale riconoscere che l’IA dovrebbe aumentare e supportare l’esperienza umana, piuttosto che sostituirla completamente.

La mancata comprensione dei processi che conducono la IA di un determinato risultato è al centro del dibattito circa l’esplicabilità della IA. L’IA esplicabile (Explainable Artificial Intelligence – xAI) emerge come un aspetto critico laddove si voglia garantire una chiara comprensione delle previsioni e dei risultati generati dall’IA.

La SIRM (Società Italiana di Radiologia Medica) ha recentemente presentato un white paper sull’xAI, che è destinato ad aiutare radiologi, medici e scienziati. In questo articolo è affrontato il problema della black-box, ossia la scatola nera che nasconde il mistero di come la IA attraverso le reti neurali raggiunga un determinato risultato. Gli autori auspicano che questo processo diventi trasparente come una scatola di vetro o glass-box, sulla quale sia possibile avere controllo.

Il suggerimento è quello di mantenere un atteggiamento critico e consapevole su come la IA raggiunge i suoi risultati, specie nella pratica radiologica.

Questa attenzione si inserisce in un processo panoramico di definizione di linee guida e di programmi di formazione che promuovano l’uso responsabile degli strumenti di IA, incoraggiando i professionisti sanitari a percepirla come uno strumento di supporto e non come una sostituzione delle loro competenze.

La formazione in ambito medico deve quindi concentrarsi sulla comprensione completa delle capacità, dei limiti e dei potenziali bias dell’IA.

È altrettanto essenziale promuovere tra i professionisti sanitari una cultura di aggiornamento professionale continuo e di pensiero critico per garantire che mantengano intatte e aggiornate le proprie conoscenze cliniche e la propria esperienza.

Affrontando queste problematiche si punta a trovare un equilibrio tra l’utilizzo dei vantaggi derivanti dagli strumenti di IA e il mantenimento della centralità essenziale dei medici nell’offrire diagnosi e cure sicure ed efficaci ai pazienti.

Un altro spunto di riflessione legato all’utilizzo e alla diffusione delle tecnologie di IA riguarda l’esistenza di un rischio di discriminazione della popolazione in base alla possibilità di accesso alle informazioni fornite attraverso la tecnologia stessa.

Si parla di divario digitale: molti potranno beneficiare del flusso costante di informazioni, ma qualcun altro potrebbe rimanerne tagliato fuori, diventando vittima di una nuova forma di discriminazione, di una separazione tra chi può accedere e chi no all’informazione.

Da ultimo è opportuno menzionare la minaccia di una progressiva perdita occupazionale in quei lavori che verranno sostituiti dalle macchine.

Il rapporto di Confartigianato dell’agosto 2023 ha evidenziato come 8,4 milioni di lavoratori italiani occupati in diversi settori siano “a rischio” per effetto della diffusione dell’intelligenza artificiale. Ne emerge che il 36,2% del totale degli occupati subirà l’impatto delle profonde trasformazioni tecnologiche e dei processi di automazione legati alla IA.

Le professioni più esposte alla trasformazione sono quelle maggiormente qualificate e a contenuto intellettuale e amministrativo, come i tecnici dell’informazione e della comunicazione, i dirigenti amministrativi e commerciali, gli specialisti in scienze e ingegneria e i dirigenti della pubblica amministrazione.

Probabilmente l’IA inciderà anche sul settore sanitario, con un rischio di perdita del lavoro specializzato, tuttavia sarà più difficile la completa sostituzione del medico stesso laddove si riuscirà a mantenere la centralità del medico nel comprendere e convalidare il risultato di una elaborazione computerizzata.

In conclusione, la sfida che l’intelligenza artificiale ci pone è molto articolata: i computer sono più performanti in termini di conoscenza di maggior numero di nozioni e sono in grado di svolgere alcune mansioni di un medico in modo più rapido. Dunque che cosa resterà in capo al medico nel processo di diagnosi e di cura, dal momento che i chatbot sembrano offrire ai pazienti una maggiore empatia rispetto all’essere umano? A noi medici degli anni Venti del secondo millennio, allo stato attuale, resta il dovere della sorveglianza critica sullo sviluppo, sull’utilizzo e sulla diffusione delle tecnologie nonché della convalida dei risultati ottenuti. La centralità della figura medica, per non venire offuscata, deve essere sostenuta da un aggiornamento continuo delle competenze personali e della conoscenza non solo della medicina, ma anche della tecnologia.


Note

  1. Cfr. L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, trad. it. M. Durante, Raffaello Cortina Editore, Milano 2022.
  2. Cfr. Floridi, Etica dell’intelligenza artificiale cit.
  3. J. W. Ayers, A. Poliak, M. Dredze, E. C. Leas, Z. Zhu, J. B. Kelley, D. J. Faix, A. M. Goodman, C. A. Longhurst, M. Hogarth, D. M. Smith, Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum, in «JAMA Internal Medicine», 2023.
  4. Cfr. P. M. J. W. Ayers et alii, Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum cit.
  5. Cfr. M. Partha Pratim Ray, P. Majumder, The Potential of ChatGPT to Transform Healthcare and Address Ethical Challenges in Artificial Intelligence-Driven Medicine, in «J Clin Neurol.», vol. 19, n. 5, 2023, pp. 509-511.
  6. Cfr. M. Jeyaraman, S. Balaji, N. Jeyaraman, S. Yadav, Unraveling the Ethical Enigma: Artificial Intelligence in Healthcare, in «Cureus», vol. 10, n. 15(8), 2023.
  7. Cfr. E. Neri, G. Aghakhanyan, M. Zerunian, N. Gandolfo, R. Grassi, V. Miele, A. Giovagnoni, A. Laghi & SIRM expert group on Artificial Intelligence, Explainable AI in radiology: a white paper of the Italian Society of Medical and Interventional Radiology, in «La Radiologia Medica», vol. 128, 2023, pp. 755-764.
Condividi:

Grazia Pozzi

è medico chirurgo specialista in Radiodiagnostica, autrice di pubblicazioni scientifiche e consigliera eletta della sezione di Radiologia Etica e Forense della Società Italiana di Radiologia Medica.

Contatti

Loescher Editore
Via Vittorio Amedeo II, 18 – 10121 Torino

laricerca@loescher.it
info.laricerca@loescher.it