È stato pubblicato il nuovo Parere del Comitato Nazionale per la Bioetica, intitolato “Relazione di cura, consenso informato e responsabilità nell’era dell’Intelligenza Artificiale”, approvato nella riunione plenaria del 27 febbraio 2026 e diffuso con Comunicato stampa CNB n. 9/2026 del 31 marzo 2026.
Il documento affronta uno dei temi più attuali e delicati del nostro tempo: l’impatto dell’intelligenza artificiale nella relazione di cura, con particolare attenzione al consenso informato, alla responsabilità clinica e alla necessità di preservare la dimensione umana della medicina.
Il Comitato sottolinea come l’ingresso dell’IA in ambito sanitario non rappresenti una semplice innovazione tecnica, ma una trasformazione profonda capace di incidere sulle decisioni cliniche, sul ruolo del medico e sulle aspettative del paziente. Per questo richiama la centralità di principi fondamentali come dignità della persona, autodeterminazione, equità, tutela della vulnerabilità, trasparenza, protezione dei dati, supervisione istituzionale e controllo umano continuo sulla tecnologia.
Il Parere ribadisce con forza che l’intelligenza artificiale deve essere impiegata per integrare e sostenere, e mai per sostituire, la relazione umana alla base della cura.
Il testo è stato coordinato e redatto dai professori Tonino Cantelmi, Alberto Gambino, Giovanni Maga e Carlo Maria Petrini ed è stato approvato quasi all’unanimità, con una sola astensione. Il professor Maurizio Mori ha inoltre redatto una nota integrativa.
ABSTRACT
I sistemi di intelligenza artificiale (IA) hanno conosciuto, in un tempo molto breve, un’evoluzione imponente. Essi sono ormai presenti in modo pervasivo in ogni ambito della vita umana. In meno di un quinquennio si è passati da un utilizzo circoscritto ad alcuni settori, gestito da professionisti, a un impiego abituale da parte di ogni cittadino: chiunque oggi dispone di strumenti di IA potenti e utili anche nella vita quotidiana.
Il Comitato Nazionale per la Bioetica (CNB) si è già occupato del tema in varie occasioni.
In particolare, nel 2020 aveva adottato, congiuntamente al Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita (CNBBSV), il Parere “Intelligenza artificiale e medicina: aspetti etici”. Nei pochi anni trascorsi da allora, lo scenario è però mutato profondamente.
Per questo motivo, il CNB ha ritenuto opportuno ritornare sull’argomento, focalizzando l’analisi sull’impatto dell’IA nella relazione di cura, con particolare riferimento al consenso informato. Si tratta infatti di un aspetto di grande rilievo per l’etica nelle scienze della vita e della salute. Il documento non intende offrire una rassegna esaustiva, ma evidenziare alcune criticità particolarmente rilevanti e proporre linee di indirizzo per affrontarle.
L’ingresso delle tecnologie di IA nella relazione di cura non rappresenta una semplice innovazione strumentale: esso costituisce una netta discontinuità epistemica e organizzativa, capace di modificare profondamente le dinamiche della decisione clinica, il ruolo del medico e le aspettative del paziente. La sfida centrale consiste nel governare tale
rivoluzione mantenendo saldi i principi fondamentali dell’etica medica — rispetto della dignità, autodeterminazione, equità, responsabilità e tutela della vulnerabilità.
Il primo asse tematico riguarda il consenso informato nell’era digitale. Storicamente, il consenso costituisce un elemento cruciale dell’atto medico. Tuttavia, già prima della diffusione dell’IA esso risultava spesso svuotato, ridotto a un adempimento formale più che a un processo dialogico. L’avvento delle tecnologie algoritmiche rende questa criticità ancora più evidente: spiegare sistemi opachi, basati su modelli di apprendimento automatico e talvolta non interpretabili, richiede competenze che non sempre i medici possiedono e capacità di comprensione che non tutti i pazienti possono realisticamente acquisire. Il consenso informato rischia così di diventare un atto “meno informato”, fondato più sulla fiducia che sulla conoscenza.
La difficoltà nel comunicare in modo chiaro i limiti, le logiche decisionali e i margini d’errore dell’IA impone un ripensamento del consenso in chiave relazionale e contestualizzata. Occorre riconoscere al medico la discrezionalità necessaria per adattare l’informazione alle esigenze e alla vulnerabilità del paziente, evitando sovraccarichi informativi senza venir meno al dovere di lealtà comunicativa.
Il documento propone di distinguere due principali modalità d’impiego dell’IA in sanità: come supporto alla diagnosi, ambito in cui la tecnologia incide direttamente sulla decisione clinica e richiede quindi un consenso specifico; come strumento integrativo o di monitoraggio terapeutico, caso in cui l’informazione riguarda il percorso di cura nel suo insieme.
In entrambe le situazioni, l’informazione deve includere tre elementi minimi: l’uso dell’IA, il ruolo svolto nel processo decisionale e la natura probabilistica dei suoi risultati.
Il secondo asse tematico affronta l’autonomia del paziente in una prospettiva relazionale. L’autonomia non è un attributo statico, ma una capacità che si costruisce e si esprime all’interno della relazione di cura. L’IA può rafforzarla — ad esempio facilitando la comprensione dei dati clinici — ma può anche indebolirla. La mediazione umana rimane un presidio essenziale per interpretare correttamente le indicazioni algoritmiche, evitare fraintendimenti e contestualizzare i risultati nella storia clinica e personale dell’individuo. L’IA non può sostituire né la valutazione clinica né l’empatia, soprattutto in ambiti come la salute mentale, nei quali la relazione personale è insostituibile.
La terza sezione affronta il tema della responsabilità. L’IA non pone un problema totalmente nuovo, ma rende più complesso quello esistente, distribuendo la responsabilità tra diversi attori: medici, strutture, sviluppatori, produttori e organismi di controllo. La medicina difensiva, già diffusa, rischia di aggravarsi con l’introduzione delle tecnologie: il medico può sentirsi sovraesposto per eventuali errori dell’algoritmo oppure, al contrario, tentato di delegare eccessivamente alla macchina. Il documento sottolinea la necessità di una normativa che riconosca la natura relazionale e distribuita della responsabilità, superando la logica che la scarica interamente sul professionista. La qualificazione dell’IA come dispositivo medico e il ruolo dei comitati etici sono elementi centrali, ma non possono sostituire la vigilanza critica e il discernimento umano. L’atto medico rimane sempre un atto
umano: l’IA fornisce dati, non decisioni.
Il quarto asse riguarda la trasparenza, la spiegabilità e i potenziali conflitti di interesse.
Il documento chiarisce che la “black box” non coincide con l’impossibilità assoluta di comprendere il funzionamento dell’IA, ma riguarda la difficoltà di ricostruire in modo intuitivo i passaggi decisionali. La spiegabilità non deve essere intesa come un requisito assoluto, bensì come la capacità di fornire ragioni sufficienti e clinicamente rilevanti per giustificare una raccomandazione. Documenti come le “model cards”, le informazioni sui dati di addestramento e l’indicazione dei limiti dei sistemi sono strumenti essenziali per un uso responsabile e per prevenire conflitti di interesse lungo la filiera.
Il quinto asse approfondisce la gestione dei dati sanitari, fondamentali per lo sviluppo dei sistemi di IA. La qualità, accuratezza e rappresentatività dei dati determinano l’affidabilità degli algoritmi. Tuttavia, la complessità dei flussi informativi rende difficile garantire al paziente un controllo pieno sull’uso dei propri dati. Il consenso, pur rimanendo essenziale, può non essere sufficiente quando la complessità tecnica supera la soglia comprensibile.
Da qui deriva la proposta della World Medical Association di affiancare al consenso individuale una “governance del consenso”, cioè una supervisione istituzionale aggiuntiva che protegga i diritti della persona nei contesti più complessi. La sesta parte affronta i temi dell’equità e della giustizia. L’IA può contribuire a ridurre
le disuguaglianze grazie alla personalizzazione delle cure e alla maggiore accessibilità, ma può anche amplificarle se non progettata e implementata con attenzione. I bias nei dati non sono semplici errori tecnici, ma riflettono disuguaglianze sociali più profonde. Prevenirli richiede un impegno coordinato di produttori, istituzioni sanitarie, professionisti e decisori pubblici.
Il CNB propone quindi un riferimento ai principi della bioetica integrati con ulteriori criteri: trasparenza, responsabilità distribuita, protezione dei dati, supervisione istituzionale, tutela delle vulnerabilità, equità nell’accesso e controllo umano continuo sulla tecnologia. L’IA deve essere progettata e utilizzata per integrare, non sostituire, la dimensione umana della cura.
Solo un approccio realmente interdisciplinare potrà garantire un’innovazione al servizio di tutti e di ciascuno.
Il Parere è stato coordinato e redatto dai Professori: Tonino Cantelmi, Alberto Gambino, Giovanni Maga e Carlo Maria Petrini. Il Prof. Giovanni Maga, partecipante al CNB quale delegato del Presidente del Consiglio Nazionale delle Ricerche (CNR), è nel frattempo deceduto, dopo lunga malattia. La sua levatura professionale e umana ha lasciato un segno profondo e indelebile nel Comitato.
Hanno apportato un importante contributo le audizioni dei Professori Andrea Bertolini (Scuola Superiore Sant’Anna di Pisa), Antonio Carcaterra (Università La Sapienza di Roma), Cons. Gian Andrea Chiesi (Corte di Cassazione), Mauro Grigioni (Centro Nazionale per le tecnologie innovative in sanità pubblica dell’ISS) e Cons. Marco Rossetti (Corte di Cassazione).
