P roviamo a immaginare questa scena: siamo nello studio di un ambulatorio ospedaliero di medicina interna. Il monitor è acceso da qualche minuto. La cartella clinica digitale è completa: anamnesi, esami ematochimici, imaging, una serie di indicatori sintetizzati in grafici che scorrono ordinati sulla destra dello schermo. In basso, evidenziata in un riquadro discreto ma visivamente centrale, compare una raccomandazione: probabilità di beneficio elevata, rischio accettabile, consigliato l’avvio di una terapia anticoagulante in un paziente con fibrillazione atriale e profilo di rischio tromboembolico significativo. Il medico legge, rilegge, poi alza lo sguardo verso il paziente seduto di fronte a lui. La decisione, almeno formalmente, spetta ancora a lui.
Non c’è nulla di coercitivo in quel suggerimento. Nessun allarme rosso, nessun obbligo esplicito. Eppure, il peso che esercita è tangibile. Non perché imponga una scelta, ma perché la rende asimmetrica: accoglierla significa seguire una traiettoria già validata, statisticamente fondata, condivisa da un’infrastruttura che promette affidabilità; discostarsene richiede invece una giustificazione ulteriore, una deviazione consapevole che dovrà essere spiegata, forse difesa. In questo scarto silenzioso prende forma una nuova condizione della decisione clinica contemporanea: un atto che resta umano nella sua firma finale, ma che viene preparato, orientato e in parte anticipato da sistemi tecnologici sempre più pervasivi, come accade nei sistemi di supporto alle decisioni cliniche (CDSS, Clinical Decision Support Systems), software che analizzano dati sanitari e suggeriscono possibili decisioni terapeutiche, affiancando il giudizio clinico senza sostituirlo.
Studi clinici hanno mostrato che modelli di deep learning possono raggiungere prestazioni comparabili o superiori a quelle degli specialisti nell’identificazione di patologie come tumori cutanei o lesioni radiologiche complesse.
Studi clinici hanno mostrato che modelli di deep learning, cioè sistemi informatici che apprendono a riconoscere schemi complessi analizzando grandi quantità di dati, in modo simile a come l’esperienza permette agli esseri umani di affinare il riconoscimento visivo, possono raggiungere prestazioni comparabili o superiori a quelle degli specialisti nell’identificazione di alcune patologie, come tumori cutanei o lesioni radiologiche complesse, contribuendo a migliorare l’accuratezza diagnostica e la stratificazione del rischio nei pazienti. In questi contesti, l’intelligenza artificiale (IA) non sostituisce il medico, ma amplia la sua capacità di osservazione, rendendo disponibili informazioni che difficilmente emergerebbero dall’esperienza individuale. La decisione resta nelle mani del clinico, ma viene indirizzata verso opzioni considerate ragionevoli, efficienti e più facilmente giustificabili, che orientano il percorso di cura.
La scena raccontata a inizio articolo ha radici lontane. Già nel Novecento i primi sistemi di supporto alle decisioni cliniche aiutavano il medico a ridurre la variabilità e l’errore, affiancando il giudizio umano con strumenti oggettivi. Tra questi primi sistemi c’era ad esempio MYCIN, sviluppato negli anni Settanta all’Università di Stanford, che aiutava a diagnosticare infezioni batteriche e suggeriva dosaggi di antibiotici basandosi su un insieme di regole codificate dagli esperti. Sempre in quegli anni, altri sistemi, come Internist-1, fornivano supporto nella diagnosi di malattie complesse, chiedendo al medico di inserire sintomi e segni clinici per ottenere un elenco di possibili diagnosi ordinate per probabilità. All’epoca si trattava di strumenti relativamente semplici, costruiti su poche variabili e su schemi decisionali predefiniti; oggi parliamo, invece, di modelli complessi, addestrati su milioni di dati, in grado di cogliere pattern invisibili all’esperienza individuale. Ma il nodo concettuale resta sorprendentemente simile: come cambia una decisione quando non nasce più soltanto dal sapere di una persona, ma da un’infrastruttura che combina l’intelligenza di esseri umani e macchine, come già avveniva nei primi sistemi esperti medici sviluppati negli anni Settanta.
L’intelligenza artificiale non decide al posto del medico, piuttosto costruisce l’orizzonte entro cui la decisione prende forma. Il risultato è una forma di delega parziale, che non elimina la responsabilità individuale ma la riorganizza.
Un caso emblematico riguarda un algoritmo ampiamente utilizzato negli Stati Uniti per identificare i pazienti che necessitavano di programmi di assistenza sanitaria intensiva. Studi successivi hanno mostrato che il sistema sottostimava sistematicamente i bisogni dei pazienti neri rispetto a quelli bianchi con condizioni cliniche simili, perché utilizzava i costi sanitari sostenuti in passato come proxy dello stato di salute. Poiché storicamente i pazienti neri avevano avuto minore accesso alle cure, il modello interpretava questa minore spesa come indicatore di minore gravità clinica, riproducendo e amplificando una disuguaglianza preesistente. L’errore non nasceva da una decisione discriminatoria esplicita, ma dalla logica statistica incorporata nel sistema.
Qui emerge il nodo centrale della questione. La decisione resta, sulla carta, un atto umano: qualcuno clicca, firma, approva. Ma il contesto in cui quella decisione viene presa è radicalmente trasformato. L’IA non decide al posto del clinico; piuttosto, costruisce l’orizzonte entro cui la decisione prende forma, stabilendo ciò che appare normale, probabile, raccomandabile. Il risultato è una forma di delega parziale, spesso impercettibile, che non elimina la responsabilità individuale ma la riorganizza.
Riflettere su questo passaggio non significa denunciare una perdita di umanità né invocare un ritorno a un passato idealizzato. Significa piuttosto rendere visibile un passaggio spesso dato per scontato: quello in cui la decisione, pur restando formalmente umana, viene progressivamente trasformata in un atto di ratifica di suggerimenti prodotti altrove. È da questo punto che occorre partire per interrogarsi sul ruolo dell’intelligenza artificiale in sanità, non come semplice strumento tecnico, ma come dispositivo culturale che ridefinisce il modo in cui decidiamo, giudichiamo e assumiamo responsabilità.
Decidere, giudicare, approvare: una breve genealogia culturale
Decidere non è mai stato un gesto semplice. Nella tradizione occidentale, la decisione è stata a lungo pensata come un atto puntuale, un momento in cui il giudizio si cristallizza, assumendo la forma di una scelta che impegna chi la compie. Ma questo atto è sempre stato sostenuto da un processo più ampio, fatto di valutazioni, confronti, mediazioni e, soprattutto, da un’assunzione di responsabilità che non si esaurisce nell’istante della scelta.
Nel contesto clinico, questa stratificazione è particolarmente evidente. Il medico non decide soltanto, ma giudica sulla base della propria esperienza, interpreta segni e sintomi, assume su di sé il rischio dell’errore. La decisione non coincide con la procedura, ma con la capacità di rispondere delle conseguenze di ciò che si è scelto di fare o di non fare.
A partire dal Novecento, questo equilibrio comincia lentamente a spostarsi. Con l’espansione delle organizzazioni complesse e della burocrazia moderna, il giudizio individuale viene progressivamente affiancato da procedure standardizzate. Max Weber descriveva questo passaggio come una razionalizzazione necessaria: regole formali, criteri impersonali, processi replicabili servono a garantire equità, prevedibilità, controllo. La decisione, in questo schema, non scompare, ma viene incastonata in una sequenza di passaggi che ne delimitano il perimetro.
Il medico non decide soltanto, ma giudica sulla base della propria esperienza e si assume il rischio dell’errore. La decisione non coincide con la procedura, ma con la capacità di rispondere delle conseguenze di ciò che si è scelto di fare. O di non fare.
Che cosa fa oggi l’IA generativa in sanità
Quando si parla di intelligenza artificiale in sanità, l’immaginario oscilla tra due estremi: da un lato la promessa di macchine che decidono al posto dei medici, dall’altro l’idea rassicurante di strumenti neutrali che si limitano a “supportare” il lavoro umano. La realtà è più sfumata e più interessante. Oggi l’IA generativa e predittiva opera principalmente come infrastruttura decisionale. Non prende decisioni cliniche autonome, ma organizza informazioni, suggerisce interpretazioni, propone priorità. Nei sistemi di supporto diagnostico, analizza immagini, testi clinici, dati di laboratorio per individuare pattern compatibili con determinate condizioni. Nei modelli predittivi, stima rischi futuri: progressione di malattia, probabilità di eventi avversi, risposta a un trattamento.
Nel triage e nella stratificazione del rischio, questi sistemi contribuiscono a ordinare i pazienti secondo criteri di urgenza o complessità, allocando risorse scarse ‒ tempo, posti letto, interventi ‒ in modo ritenuto più efficiente. Nelle raccomandazioni cliniche, integrano linee guida e dati individuali per suggerire opzioni terapeutiche personalizzate.
È importante notare che, nella maggior parte dei casi, non si tratta di automazione della scelta, ma di automazione del contesto decisionale. L’IA non dice “fai questo”, ma costruisce un ambiente in cui alcune opzioni emergono come naturali, altre come marginali. Rende alcune decisioni più rapide, più giustificabili, più difendibili. E, così facendo, ridefinisce ciò che appare ragionevole.
Quando qualcosa va storto, l’errore non è più attribuibile a un singolo individuo, ma al sistema nel suo complesso: non c’è colpa, ma malfunzionamento; non responsabilità, ma errore tecnico.
Il clic che decide
Non è solo la sanità a sperimentare la frammentazione delle decisioni. Accade ogni volta che ci affidiamo a sistemi che guidano le nostre scelte: per esempio, lasciamo che algoritmi filtrino i candidati per una posizione lavorativa prima ancora che qualcuno li valuti personalmente; utilizziamo valutazioni di rischio prodotte da sistemi finanziari o assicurativi per orientare decisioni economiche e contrattuali; accettiamo i suggerimenti delle piattaforme digitali, cosa guardare, cosa comprare, cosa leggere, senza conoscere i criteri con cui quelle raccomandazioni sono state prodotte. In tutti questi casi, la decisione viene scomposta in microdeleghe: nessuno decide tutto, ma ciascuno approva un passaggio. Quando qualcosa va storto, l’errore non è più attribuibile a un singolo individuo, ma al sistema nel suo complesso: non c’è colpa, ma malfunzionamento; non responsabilità, ma errore tecnico. Gli studi sul bias di automazione spiegano come gli operatori tendano a fidarsi dei suggerimenti delle macchine anche quando sono errati, perché seguire la raccomandazione riduce il carico cognitivo.
In sanità, questo crea un paradosso: il medico resta formalmente responsabile, ma il margine effettivo di intervento si riduce, e la responsabilità si sposta dal gesto decisionale al clic finale: non “che cosa hai deciso”, ma “perché non hai seguito ciò che era indicato”. La letteratura sulle responsabilità mediche nell’era dell’IA sottolinea come la supervisione umana rimanga obbligatoria e non possa essere semplicemente delegata alla tecnologia. Sistemi di supporto decisionale come quelli utilizzati nella prescrizione elettronica di farmaci possono ridurre alcuni errori, ma introducono nuove vulnerabilità quando il medico si affida senza verificarne le indicazioni. Studi sull’uso di sistemi di allerta clinica hanno mostrato che i professionisti tendono talvolta ad accettare le raccomandazioni algoritmiche senza verificarle criticamente, soprattutto in condizioni di carico cognitivo elevato, mentre in altri casi sviluppano una forma di assuefazione agli avvisi ripetitivi, ignorando segnali potenzialmente rilevanti. Questo fenomeno, noto come automation bias, cioè la tendenza a fidarsi eccessivamente delle indicazioni dei sistemi automatizzati, non elimina il ruolo umano, ma lo trasforma: il rischio non è più soltanto l’errore individuale, ma l’interazione imperfetta tra operatore e sistema.
In alcuni casi gli operatori tendono a fidarsi dei suggerimenti delle macchine anche quando sono errati, sia perché seguire la raccomandazione riduce il carico cognitivo, sia perché una scelta alternativa potrebbe comportare responsabilità legali.
Nei casi di terapia intensiva, ad esempio, scegliere un trattamento diverso da quello suggerito dai modelli predittivi può comportare responsabilità legali e giustificazioni agli audit clinici, anche quando la deviazione è clinicamente motivata. La decisione tende così a diventare ratifica: non per rinuncia consapevole, ma come esito naturale di un processo che ha già selezionato l’opzione “migliore”. La velocità del suggerimento e l’aura di oggettività che lo accompagna ‒ numeri, percentuali, modelli ‒ funzionano come criteri morali impliciti: ciò che è rapido e calcolato appare anche giusto. La responsabilità resta sempre del medico, ma cambia forma: non riguarda tanto la scelta in sé, quanto il seguire, o non seguire, i suggerimenti del sistema. La libertà di decidere esiste ancora, ma è più difficile da esercitare e spesso poco visibile.
Agentività residuale e libertà formale
L’effetto di questi meccanismi non è tanto l’eliminazione della libertà decisionale, quanto la sua progressiva rarefazione. La possibilità di scegliere diversamente rimane formalmente intatta, ma perde centralità nella pratica quotidiana. La decisione autonoma non scompare, ma viene spostata ai margini, trasformata in evento eccezionale, da attivare solo quando qualcosa interrompe il flusso ordinario del lavoro clinico.
L’agentività che resta, cioè il margine reale di decisione e di azione autonoma del clinico, la sua capacità effettiva di agire intenzionalmente e assumersi la responsabilità delle proprie scelte, è residuale. Non perché sia stata abolita, ma perché è stata resa onerosa. La libertà decisionale sopravvive come eccezione, non come norma. In molti settori tecnologici, dall’aviazione alla finanza algoritmica, si osserva un fenomeno simile: gli operatori formalmente possono intervenire, ma ogni deviazione dai protocolli automatizzati richiede una documentazione aggiuntiva e aumenta il rischio di responsabilità. Anche la storia della medicina offre paralleli. L’introduzione dei protocolli di sicurezza chirurgica o dei sistemi di prescrizione elettronica ha ridotto gli errori, ma ha trasformato la libertà decisionale individuale in un esercizio oneroso e spesso invisibile.
La questione non è scegliere tra autonomia umana e automazione, ma riconoscere ciò che accade nello spazio intermedio tra suggerimento e scelta. È lì che il giudizio clinico rischia di ridursi a conferma di opzioni già selezionate altrove.
Abitare lo spazio intermedio
La medicina non è mai stata un atto solitario: il giudizio medico si è sempre formato all’interno di apparati tecnici, protocolli e strumenti che ne hanno orientato l’esercizio. Ciò che cambia oggi non è la presenza della tecnologia, ma la sua capacità di strutturare in anticipo ciò che appare come una decisione ragionevole. La questione, allora, non è scegliere tra autonomia umana e automazione, ma riconoscere ciò che accade nello spazio intermedio tra suggerimento e scelta. È lì che la raccomandazione algoritmica diventa norma implicita, è lì che il giudizio clinico rischia di ridursi a conferma di opzioni già selezionate altrove. L’agentività che sopravvive non scompare, ma si restringe: non viene negata, viene resa costosa, eccezionale, giustificabile solo a posteriori. In questo contesto, lo scostamento dal suggerimento non è più un gesto ordinario del ragionamento clinico, ma un atto che deve essere difeso. La responsabilità non riguarda più tanto ciò che si decide, quanto il motivo per cui non si è aderito a ciò che era indicato.
L’intelligenza artificiale può rendere le decisioni più rapide, più coerenti, più difendibili, ma proprio per questo rischia di rendere meno visibile il momento in cui qualcuno decide davvero. In alcuni casi, gli strumenti predittivi hanno migliorato sensibilmente diagnosi e allocazione delle risorse: ad esempio, modelli predittivi in oncologia hanno aumentato la precisione nella classificazione dei pazienti e nella personalizzazione dei trattamenti, migliorando gli esiti clinici rispetto ai metodi tradizionali. Allo stesso tempo, alcuni studi documentano come algoritmi di supporto decisionale possano riprodurre e amplificare bias preesistenti, generando disparità nei risultati tra gruppi etnici o razziali, specialmente quando i dati di addestramento non sono rappresentativi della popolazione reale; in ambito diagnostico, sono state osservate anche prestazioni peggiori dell’IA su immagini di pazienti con caratteristiche meno rappresentate nei dataset, come alcune condizioni dermatologiche o popolazioni con fenotipi cutanei diversi.
Questi esempi illustrano due facce della stessa medaglia: l’IA può ampliare la capacità diagnostica e decisionale, eppure può anche riprodurre disuguaglianze sanitarie e introdurre errori sistematici se non adeguatamente progettata, validata e monitorata. In ultima analisi, la diffusione dell’intelligenza artificiale non elimina la responsabilità individuale, la riorganizza. Non siamo più davanti a un medico che decide “da solo”, ma a un professionista che decide entro un contesto tecnologico e culturale in continua evoluzione, che richiede non solo competenza tecnica, ma anche consapevolezza delle implicazioni etiche e sociali associate all’uso dell’IA in sanità.
L’IA può ampliare la capacità diagnostica e decisionale, ma può anche riprodurre disuguaglianze sanitarie e introdurre errori sistematici, se non adeguatamente progettata, validata e monitorata.