La vita in gioco

Scritto il 27/01/2026

Quando l’IA ha ragione l’85% delle volte, chi paga il conto del restante 15%?

Il paradosso Remuzzi e la teoria dei giochi applicata alla delega diagnostica

di Giuseppe Orzati

Il professor Giuseppe Remuzzi ha lanciato un dato che interroga la professione medica: secondo uno studio condotto da Microsoft AI, l’intelligenza artificiale individua la diagnosi corretta nell’85,5% dei casi clinici complessi analizzati, contro il 20% ottenuto da un gruppo di 21 medici.

Alcune precisazioni metodologiche sono d’obbligo. Lo studio, chiamato Sequential Diagnosis Benchmark (SDBench), è un preprint non ancora sottoposto a revisione paritaria. I 304 casi del New England Journal of Medicine utilizzati erano stati selezionati proprio per la loro estrema complessità diagnostica. I 21 medici partecipanti — 17 medici di base e 4 generalisti ospedalieri, con una mediana di 12 anni di esperienza — operavano senza accesso a consulenze con colleghi, libri di riferimento o strumenti diagnostici standard. Non erano inclusi specialisti. Condizioni che non rispecchiano la pratica clinica quotidiana.

Ma anche tenendo conto di queste limitazioni, il dato solleva una questione che va oltre i numeri.

Il gioco che nessuno vuole giocare

Immaginiamo un medico davanti a un paziente. Ha due scelte: fidarsi dell’IA oppure ragionare autonomamente. La teoria dei giochi ci insegna a calcolare il valore atteso di ogni mossa. Proviamo a farlo.

Scenario A: Il medico si fida sempre dell’IA

L’IA azzecca nell’85% dei casi (nei test citati, su casi complessi). Ma in quel 15% residuo — i casi in cui sbaglia — cosa succede? Il medico, che ha progressivamente disimparato a ragionare, non intercetta l’errore. Lo amplifica. Lo firma.

Scenario B: Il medico ragiona sempre da solo

Azzecca nel 20% dei casi complessi (secondo i parametri dello studio, senza strumenti di supporto). Un risultato deludente, apparentemente. Ma mantiene intatte le competenze per quei momenti in cui serve il giudizio umano.

Scenario C: Il medico collabora criticamente con l’IA

Qui si apre lo spazio del gioco. Ma richiede qualcosa che non si improvvisa: la capacità di mettere in discussione anche ciò che funziona quasi sempre.

L’erosione silenziosa

Uno studio pubblicato su Lancet Gastroenterology & Hepatology nell’agosto 2025 documenta cosa succede quando i medici si abituano al supporto automatizzato. In quattro centri polacchi, i ricercatori hanno confrontato la qualità delle colonscopie eseguite da 19 endoscopisti esperti (ciascuno con oltre 2.000 procedure alle spalle) in due periodi: tre mesi prima dell’introduzione di un sistema IA per la rilevazione dei polipi, e tre mesi dopo. Nel periodo successivo all’introduzione, le colonscopie venivano randomizzate — alcune con supporto IA, altre senza — in base alla data dell’esame.

Il risultato? Nelle colonscopie senza IA eseguite dopo l’introduzione del sistema, il tasso di rilevamento degli adenomi (ADR) era sceso dal 28,4% al 22,4% rispetto al periodo precedente. Una riduzione del 21% in termini relativi, statisticamente significativa.

In un commento pubblicato sulla stessa rivista, Omer Ahmad dell’University College London ha osservato che l’uso regolare dell’IA può ridurre la vigilanza diagnostica e la fiducia nelle proprie capacità quando il supporto viene rimosso. Un fenomeno che la letteratura scientifica sui sistemi di supporto alle decisioni chiama automation bias: la tendenza a delegare non solo l’azione, ma la vigilanza stessa, al sistema automatizzato.

La matrice dei payoff nascosti

Nella teoria dei giochi, ogni decisione ha un payoff — un guadagno o una perdita. Il problema è che stiamo calcolando i payoff sbagliati.

Consideriamo questo: quando l’IA ha ragione, il beneficio è immediato e visibile. Diagnosi corretta. Paziente curato. Sistema efficiente.

Ma quando l’IA sbaglia — e un medico che ha perso l’abitudine al ragionamento autonomo non intercetta l’errore — il danno non è simmetrico. È sproporzionato. Parliamo di vite. Di contenziosi. Di fiducia sistemica che si deteriora.

Il valore atteso di un errore non è semplicemente:

P(errore) × costo dell’errore

È qualcosa di più complesso:

P(errore IA) × P(mancata intercettazione medico) × impatto clinico × impatto sistemico

E quell’ultimo fattore — l’impatto sistemico — include la progressiva erosione delle competenze dell’intera classe medica.

Una proposta: il Guardian Index

E se costruissimo un sistema che gioca con il medico invece che al posto del medico?

Propongo un indicatore — chiamiamolo Guardian Index — che potrebbe operare su tre livelli:

  1. Calcolo dell’impatto atteso dell’errore

Per ogni diagnosi proposta dall’IA, il sistema valuta: se questa diagnosi fosse sbagliata, quanto sarebbe grave? La gravità dipende dalla patologia, dalla finestra terapeutica, dalla reversibilità del danno.

  1. Stima della probabilità di errore contestuale

Non tutti gli errori dell’IA sono equiprobabili. Il sistema analizza i pattern storici: in quali tipologie di casi l’IA tende a sbagliare? Questo paziente rientra in una categoria a rischio?

  1. Monitoraggio della vigilanza del medico

Quanto velocemente il medico accetta le proposte dell’IA? Con quale frequenza richiede approfondimenti? Il pattern comportamentale suggerisce delega passiva o collaborazione attiva?

Quando il prodotto di questi fattori supera una soglia, il sistema interviene. Non contraddicendo l’IA, ma sollecitando il medico. Chiedendo esplicitamente una verifica autonoma. Introducendo un attrito cognitivo deliberato.

Formare alla sfiducia costruttiva

Ma l’intervento più significativo è culturale, non tecnologico.

Dobbiamo insegnare ai medici — fin dalla formazione — a confrontarsi con l’IA. Non a combatterla, non a ignorarla, ma a dialogarci con quella che potremmo chiamare sfiducia costruttiva.

Questo significa:

  • Mai accettare una diagnosi IA senza aver formulato almeno un’ipotesi alternativa
  • Cercare attivamente i casi in cui l’IA potrebbe sbagliare, non quelli in cui conferma le aspettative
  • Esercitare periodicamente il ragionamento clinico puro, senza supporto algoritmico — come un atleta che mantiene la forma di base

Gli autori dello studio Lancet raccomandano esplicitamente di alternare sessioni con e senza supporto IA, mantenere una consapevolezza attiva, preservare la capacità di osservazione indipendente.

Il contesto degli errori in sanità

Nel suo intervento, Remuzzi ha affermato: “È impossibile per un medico, per quanto preparato, conoscere e trattare migliaia di malattie — ne nascono circa 250 nuove ogni anno — ma l’IA può farlo in tempi compatibili con la pratica quotidiana.”

Ha inoltre citato il dato di 2,6 milioni di morti annue attribuendole alle diagnosi sbagliate. È opportuna una precisazione: secondo l’Organizzazione Mondiale della Sanità, i 134 milioni di eventi avversi annui e i 2,6 milioni di decessi correlati riguardano la “unsafe care” nel suo complesso — che include errori diagnostici, ma anche errori di medicazione, infezioni ospedaliere, complicanze chirurgiche e altri eventi avversi, prevalentemente nei paesi a basso e medio reddito.

Gli errori diagnostici sono una componente significativa di questo quadro, ma non l’unica. Il dato resta impressionante e l’argomento di Remuzzi sulla potenziale utilità dell’IA come supporto diagnostico mantiene la sua validità, pur richiedendo questa contestualizzazione.

Il paradosso dello strumento efficace

“L’intelligenza artificiale non dovrebbe essere temuta dai medici — ha detto Remuzzi — ma usata come strumento aggiuntivo.” Il rapporto umano con il paziente, ha sottolineato, resta fondamentale e insostituibile. L’IA può snellire compiti ripetitivi, come la compilazione di referti o lettere di dimissione, liberando tempo prezioso per l’interazione diretta con i pazienti.

Ma proprio perché l’IA è così efficace — perché azzecca così spesso — il rischio è paradossalmente maggiore. Uno strumento mediocre mantiene vigile chi lo usa. Uno strumento eccellente lo addormenta.

La sfida non è tecnologica. È di progettazione comportamentale. È capire che il vero gioco non è “IA contro medico” ma “sistema IA-medico contro errore”. E in questo gioco, il medico deve rimanere un giocatore attivo, non uno spettatore.

L’equazione finale

Gli errori diagnostici contribuiscono a migliaia di morti evitabili ogni anno. L’IA promette di ridurre questa quota.

Ma l’equazione non si chiude calcolando solo gli errori evitati. Bisogna includere gli errori nuovi — quelli che nascono quando un sistema molto efficiente incontra un operatore troppo fiducioso.

La vita è in gioco. Letteralmente. E come in ogni gioco, vince chi conosce tutte le regole — anche quelle non scritte.

Giuseppe Orzati è Founder & CEO di Koncept srl e fondatore di Cogi.co, dove sviluppa piattaforme di Wisdom Intelligence per il settore sanitario.

ilmagazine.news | magazine.grandiospedali.it

Note metodologiche e fonti:Studio Microsoft SDBench (preprint, non peer-reviewed): arXiv preprint 2506.22405, giugno 2025. 304 casi NEJM selezionati per complessità diagnostica; 21 medici (17 primary care, 4 generalisti ospedalieri, mediana 12 anni esperienza) senza accesso a colleghi, libri o internet; accuratezza IA (MAI-DxO con o3) 85,5% vs medici 20%. Fonte: Microsoft AI Research – Studio Lancet (Budzyń et al., 2025, peer-reviewed): Lancet Gastroenterol Hepatol 2025;10(10):896-903, DOI: 10.1016/S2468-1253(25)00133-5. Studio osservazionale retrospettivo su 4 centri polacchi (trial ACCEPT), 19 endoscopisti esperti (>2.000 procedure ciascuno), confronto ADR 3 mesi pre/post introduzione IA; ADR sceso da 28,4% a 22,4% nelle colonscopie senza IA dopo l’esposizione al sistema – Commento Ahmad: Ahmad OF. Endoscopist deskilling: an unintended consequence of AI-assisted colonoscopy? Lancet Gastroenterol Hepatol 2025, DOI: 10.1016/S2468-1253(25)00164-5 – Dati WHO: WHO Patient Safety Fact Sheet; WHO “10 Facts on Patient Safety”. 134 milioni eventi avversi/anno e 2,6 milioni decessi riferiti a “unsafe care” complessiva (include errori diagnostici, di medicazione, infezioni ospedaliere, complicanze chirurgiche), prevalentemente in paesi a basso-medio reddito – Citazioni Remuzzi: intervento al Centro Congressi di Bergamo, 25 gennaio 2026, cerimonia borse di studio Fondazione Aiuti Ricerca Malattie Rare. Fonti: Arena Digitale (26/01/2026), FIMMG Roma