Ispirato all’articolo “Calibrare la dipendenza dall’IA: il dilemma sovrumano di un medico”, JAMA Health Forum, 2025;6(3):e250106.
Introduzione
La medicina moderna è attraversata da un cambiamento paradigmatico che coinvolge la crescente diffusione dell’intelligenza artificiale (IA) di supporto ai processi decisionali clinici. Dalle diagnosi radiologiche alla gestione dei parametri vitali in terapia intensiva, i sistemi IA promettono di aumentare l’efficienza, ridurre gli errori e alleggerire il carico cognitivo del personale sanitario. Ma ogni promessa tecnologica comporta un costo, spesso nascosto.
Il recente contributo pubblicato su JAMA Health Forum da Patil, Myers e Lu-Myers affronta un nodo cruciale ma poco discusso: il carico morale e cognitivo che deriva dall’essere chiamati a “calibrare” l’affidabilità dell’IA in assenza di riferimenti normativi, strumenti standardizzati o supporti organizzativi adeguati. L’articolo solleva una domanda inquietante: possiamo davvero chiedere ai medici di esercitare un giudizio infallibile, calibrando perfettamente la fiducia in un algoritmo che essi stessi non comprendono pienamente?
Cerchiamo di approfondire le implicazioni critiche di questo paradosso, discutere i rischi per la qualità delle cure e il benessere professionale e fare alcune proposte per un equilibrio tra umano e artificiale nella pratica clinica.
Oltre la promessa tecnologica: il peso delle aspettative irrealistiche
Le tecnologie IA sono presentate al pubblico e ai decisori sanitari come strumenti quasi infallibili. Spesso il discorso pubblico, supportato da una narrazione tecno-ottimista, mette in risalto la loro capacità di superare i limiti dell’intuizione clinica, del tempo umano e dell’errore. Tuttavia, come segnalato dagli autori dell’articolo, l’adozione pratica avviene in un vuoto regolatorio: le organizzazioni sanitarie possono integrare i supporti di IA ben prima che le leggi e i codici deontologici si aggiornino.
Qual è il rischio? Che l’intera responsabilità per scelte basate, anche parzialmente, sull’IA ricada sul medico. In caso di errore, la percezione pubblica – e in alcuni casi quella giudiziaria – tenderà ad attribuire maggiore colpa al clinico se ha seguito la raccomandazione di un algoritmo piuttosto che il parere esperto di un collega? Questa asimmetria non è neutra: alimenterà – anzi sta già alimentando – paure, rigidità difensive e una pressione costante verso l’infallibilità.
Il paradosso della calibrazione: tra fiducia cieca e scetticismo paralizzante
Il dilemma che si presenta al medico è quello che un’eccessiva dipendenza dall’IA può condurre a falsi positivi, mentre un’eccessiva diffidenza può portare a sottovalutare raccomandazioni corrette. Questo doppio vincolo si manifesta in un processo decisionale ambiguo, in cui il medico deve valutare la bontà dell’algoritmo e confrontarla con la propria esperienza, senza un reale supporto metodologico o formativo.
A peggiorare il quadro è la natura opaca (“black box”) di molti sistemi IA. Le raccomandazioni non sono accompagnate da una spiegazione comprensibile, ma da un output sintetico, basato su correlazioni statistiche. Ciò rende difficile per il medico integrare l’input dell’IA con la sua pratica, che è invece orientata a un ragionamento causale, contestuale e narrativo. Non si tratta solo di interpretabilità tecnica, ma di un disallineamento epistemologico. L’IA “pensa” per pattern, il medico per inferenze cliniche: la loro collaborazione è tutt’altro che automatica.
Rischi per il benessere professionale e la sicurezza del paziente
La difficoltà di calibrare l’uso dell’IA non è solo un problema etico o teorico. Le conseguenze sono tangibili.
Per il medico, il rischio è quello del burnout, aggravato da aspettative irrealistiche di infallibilità. Come mostrano studi in altri settori (forze dell’ordine, trasporti, aviazione), le professioni ad alta responsabilità esposte a vincoli rigidi e giudizi severi tendono a sviluppare comportamenti difensivi, chiusura emotiva e riduzione della proattività.
Per il paziente, il rischio è duplice. Da un lato, può ricevere cure inappropriate per eccessiva fiducia nei sistemi. Dall’altro, può essere privato di trattamenti innovativi o non convenzionali se il medico teme di discostarsi dai protocolli, anche quando l’IA suggerisce un approccio alternativo supportato dai dati.
In entrambi i casi, la qualità dell’assistenza è compromessa da un clima organizzativo che chiede al medico di agire come un “sorvegliante perfetto” di una tecnologia che egli stesso non può governare del tutto.
Critica all’asimmetria organizzativa: il medico lasciato solo davanti all’algoritmo
Uno dei messaggi più importanti dell’articolo di Patil, Myers e Lu-Myers è la denuncia dell’asimmetria di responsabilità tra medico e organizzazione. L’adozione dell’IA viene spesso calata dall’alto, promossa da strategie aziendali o politiche pubbliche, ma la gestione operativa del rischio viene delegata completamente al singolo professionista. Questo squilibrio è insostenibile.
In altri settori ad alto rischio, come l’aeronautica, l’integrazione di nuove tecnologie è accompagnata da protocolli condivisi, simulazioni, procedure di valutazione del rischio e formazione specifica. In sanità, invece, manca ancora una governance tecnologica che metta al centro il lavoro clinico e che accompagni il medico nella negoziazione quotidiana tra input algoritmico e decisione umana.
Proposte per un equilibrio sostenibile
Alla luce di queste criticità, sarà necessario pensare a un approccio all’intelligenza artificiale in medicina che sposti l’attenzione dal “costringere il medico a decidere bene” al “costruire le condizioni per decidere insieme”. Proponiamo almeno 5 punti chiave.
- Linee guida dinamiche per la valutazione dell’output IA
Le organizzazioni sanitarie dovrebbero adottare linee guida operative che aiutino i medici a valutare criticamente le raccomandazioni dell’IA. Tali linee guida potrebbero includere:
- criteri di affidabilità dell’algoritmo per specifici contesti clinici;
- procedure per confrontare l’output con dati reali del paziente;
- indicazioni per valutare la novità o l’atipicità della raccomandazione;
- domande guida per il confronto multidisciplinare (es. team board).
L’obiettivo non è creare una checklist rigida, ma offrire un “supporto cognitivo” condiviso che riduca la solitudine decisionale del medico.
- Simulazioni cliniche con sistemi IA
Usare la simulazione clinica per addestrare i medici a interagire con l’IA in scenari realistici ma protetti. Questo approccio, già diffuso in ambiti quali la medicina dell’emergenza e le cure critiche può aiutare a costruire fiducia “intelligente” e non cieca verso la tecnologia.
Le simulazioni dovrebbero mirare a:
- allenare alla gestione dell’incertezza e dell’errore algoritmico;
- promuovere il confronto tra professionisti sui limiti dell’IA;
- normalizzare l’idea che rifiutare un output IA non è sempre un errore, ma una scelta razionale.
- Feedback e tracciabilità dell’interazione medico-IA
Le organizzazioni dovrebbero investire in sistemi che permettano di documentare le scelte cliniche in relazione all’uso dell’IA. Con questo proposito diventa importante tracciare:
- quando l’output IA è stato accettato o rifiutato;
- con quali motivazioni cliniche;
- quali sono stati gli esiti per il paziente.
Questi dati possono generare feedback organizzativi utili per individuare pattern di uso efficace o inefficace dell’IA, migliorare la formazione, ma anche supportare i medici in caso di contenzioso.
- Un nuovo patto tra medico e organizzazione
Serve un cambio culturale: l’IA non può essere considerata uno strumento neutro che “aumenta la produttività”, ma un attore della cura che modifica i ruoli e le responsabilità. Le Direzioni sanitarie devono assumersi una quota di rischio e supportare i professionisti non solo tecnicamente, ma anche eticamente.
Ciò significa integrare esperti di etica, giuristi e data scientist nei processi clinici; riconoscere il tempo dedicato alla valutazione dell’IA come tempo di cura; sviluppare modelli di corresponsabilità che tutelino il medico in caso di errori ragionevoli.
- Verso un nuovo patto tra medico e paziente nell’era dell’IA
Accanto al necessario ridisegno del rapporto tra professionisti e organizzazione, è fondamentale riconoscere che anche il patto tra medico e paziente è destinato a evolvere. L’intelligenza artificiale non può sostituire la relazione di cura, ma deve essere posta al servizio di essa, rafforzando — e non indebolendo — il principio del consenso informato, del rispetto dell’autonomia e della co-costruzione delle decisioni terapeutiche.
Questo significa:
- Rendere trasparenti le logiche e i limiti degli algoritmi impiegati, traducendo il linguaggio tecnico in parole comprensibili per il paziente;
- Coinvolgere attivamente i pazienti nei processi di valutazione e adozione dell’IA, soprattutto in ambiti dove il giudizio clinico è profondamente personale o soggettivo;
- Garantire che l’uso dell’IA non oscuri la voce del paziente, ma la rafforzi, integrando le preferenze individuali e i valori nelle raccomandazioni algoritmiche;
- Tutelarli da un uso non critico della tecnologia, promuovendo pratiche di “IA condivisa” e non imposta.
In questa prospettiva, la centralità del paziente non può essere un principio astratto, ma deve concretizzarsi in pratiche cliniche e organizzative che rendano la persona co-protagonista della cura, anche — e soprattutto — nell’era dell’intelligenza artificiale.
Conclusioni
L’intelligenza artificiale rappresenta una delle innovazioni più potenti nella storia recente della medicina. Ma come ogni innovazione, il suo valore dipenderà non solo dalla precisione degli algoritmi, ma dalla capacità delle istituzioni sanitarie di costruire una cornice di senso e di responsabilità condivisa.
L’articolo di JAMA Health Forum ci ricorda che non possiamo chiedere ai medici di essere sovrumani. Possiamo però aiutarli a essere umani nelle migliori condizioni possibili: sostenuti, formati, ascoltati. E soprattutto: non lasciati soli davanti a un algoritmo.