Città del Vaticano , 12 November, 2025 / 6:00 PM
Oggi parliamo di intelligenza artificiale, ma ci riferiamo più generalmente al “machine learning”, ovvero alle macchine che ora sono in grado di interagire, accumulare dati ed elaborarli in forma discorsiva, dando l’illusione di un’interazione. E allora cambiano le frontiere etiche, si crea la necessità di nuovi diritti, si cerca di comprendere nuovi confini.
È di questo che si è parlato nei due giorni di convegno in Vaticano, organizzato dalla Pontificia Accademia per la Vita e dalla Federazione Internazionale dei Medici Cattolici, con una serie di medici, bioeticisti e teologi.
Quello Vaticano è un percorso lungo, avviato con la Rome Call for AI Ethics, firmata non solo dalle grandi aziende farmaceutiche, ma anche dalle religioni. La questione medica è centrale per tanti punti di vista. Perché oggi le macchine sono chiamate a fare diagnosi, ma anche, in alcuni casi, a valutare se staccare o meno la spina. Perché la velocità e la privatizzazione della sanità, unite agli interessi economici, portano ad affidarsi al “machine learning” in modo sempre più massiccio. La gestione dei dati, insomma, è una cosa, il fatto di accettare che siano le macchine a prendere decisioni, senza mitigazione umana, è un’altra.
Sottolinea monsignor Renzo Pegoraro, presidente della Pontificia Accademia per la Vita: “È un evento organizzato e realizzato dalla Pontificia Accademia per la Vita con la Federazione Internazionale dei Medici Cattolici, ed è entrato nello specifico di quella che è la medicina, del rapporto medico-paziente, di tutto quello che l’intelligenza artificiale può fare come diagnosi, come prognosi, come impatto sul territorio, ma anche con la consapevolezza dei rischi e dei problemi che si creano”.
Il professor Yves Poullet, dell’Università di Namur, sottolinea che la preoccupazione principale è quella “del diritto alla dignità”, perché “l’intelligenza artificiale è un grado di manipolare le persone e di modificare la mente; può creare nuove possibilità per le persone. E il diritto deve riflettere su questo, proporre nuove regole”.
Poullet sottolinea che “c’è una privatizzazione dell’offerta dei servizi medici”, e “sempre più si vedono le compagnie big tech entrare in questo grande mercato”.
Il primo problema, spiega, “è quello dell’autonomia delle persone. Ci troviamo di fronte ad un sistema opaco. Le persone danno dati, ma non sappiamo esattamente cosa succederà con quei dati. C’è un diritto di essere informati”.
Allo stesso tempo, c’è “un diritto ad avere una spiegazione umana per una decisione presa dall’intelligenza artificiale”.
E poi c’è il tema dell’eutanasia, e delle macchine che decidono quando staccare la spina. “Anche per questo, si deve garantire il diritto delle persone di rifiutare di essere sottomesse ad un sistema di intelligenza artificiale”, e “deve essere chiaro scegliere tra l’essere esaminato da un robot e da una persona”.
E poi, Poullet dettaglia: “Il diritto all’integrità fisica, a partire dalla nostra mente, è la cosa più importante”.
Diana Ferro, ricercatrice, lavora al Bambino Gesù. “La cosa importante – spiega – è di non perdere di vista l’identità umana mentre si attiva l’ultima tecnologia”. Perché l’intelligenza artificiale, le risposte che dà, suona credibile, professionale, standard, ma con quelle si perde anche l’imperfezione umana, la differenza di opinione, quella tipicità propria dell’essere umano.
Il problema, aggiunge, è che il medico debba essere “comunque consapevole del processo”. Anche perché l’intelligenza artificiale c’è sempre stata in medicina, la tecnologia è sempre stata usata, ma ci sono stati anche tanti “inverni”, ovvero momenti in cui la tecnologia aveva raggiunto un punto in cui per un po’ si fermava perché non c’era un nuovo hardware. Ma la tecnologia generativa questo limite è stato superato.
Il professor João Santos Pereira, dell’Università Cattolica di Lisbona, ha delineato lo scenario mondiale nel suo intervento: l’Italia e la tecnologia che aiuta nelle scelte mediche, l’India che viene utilizzata per creare maggiore accesso e trasparenza alle cure sanitarie, in Nord-America si parla del modo di prevedere i disturbi cardio-vascolari.
Santos Pereira nota che l’intelligenza artificiale ha permesso anche di creare reti cliniche di sicurezza laddove la performance umana varia, sebbene “la validazione umana sarà sempre richiesta per importanti decisioni diagnostiche”. E tuttavia “gli algoritmi possono mettere in luce problemi, trovare condizioni rare, semplicemente migliorare nel farlo senza che la qualità sia colpita”, e questo funziona bene “laddove l’accesso alla conoscenza degli esperti è limitata, come succde in India”.
Santos nota che nel Nord America si è superato il confine della diagnostica, e i modelli di intelligenza artificiale arrivano persino a fare predizioni, grazie a “un passaggio fondamentale negli algoritmi dell’intelligenza artificiale: piuttosto che classificare o analizzare i dati, le nuove versioni di intelligenza artificiale hanno l’obiettivo di creare o generare nuovo contenuto”.
Santos mette comunque in luce i problemi: dalla gestione dei dati e il modo in cui sono utilizzati, anche perché “è importante notare che il tipo di dati usati per allenare gli algoritmi dell’intelligenza artificiale determinerà il tipo di risposte che verranno date”.
Poi c’è la questione di come estrapolare i dati, quella delle infrastrutture e, infine, le sfide correlate alla trasparenza, perché “la maggior parte degli algoritmi generativi IA forniscono risposte che non sono facilmente spiegabili, portando a cosiddetti ‘problemi di scatola nera’.”
E poi, c’è la minaccia alla professione medica, che non viene sostituita, ma viene considerata meno in ragione delle sue abilità e porta persino a perdere le abilità stesse – effetti “già misurati nella professione medica”.
La sfida più grande, conclude Santos, è quella della regolazione e governance. Servono “chiari confini”, considerando anche che l’AI sta cambiando profondamente la medicina oggi e che la diagnostica può essere sempre più automatizzata.
Therese Lysaught, teologa e bioeticista, membro della Pontificia Accademia per la Vita, ha ricordato che questo confronto è l’inizio di un percorso. “Sapete – ha detto – che la bioetica cattolica tende ad essere reazionaria, cioè a reagire quando qualcosa avviene. E abbiamo reagito su questo tema, ma lo abbiamo fatto quando il tema è molto nuovo, e posso dire che la Pontificia Accademia per la Vita lo ha messo in cima alla sua agenda e sta impegnandosi in un modo più proattivo che reattivo per aiutare a delineare una conversazione in maniera intedisciplinare a dialogica”.
In particolare, Lysaught ha messo in luce “la tensione sulla tendenza a umanizzare la tecnologia, a dare alla tecnologia queste caratteristiche umane. Ma l’intelligenza artificiale ha memoria, ma non è in realtà intelligente e non ha memoria nello stesso modo in cui l’abbiamo noi. E dunque diamo caratteristiche umane all’intelligenza artificiale, e facciamo l’inverso con noi, attribuendoci termini meccanici”.
Le Migliori Notizie Cattoliche - direttamente nella vostra casella di posta elettronica
Iscrivetevi alla newsletter gratuita di ACI Stampa.
La nostra missione è la verità. Unisciti a noi!
La vostra donazione mensile aiuterà il nostro team a continuare a riportare la verità, con correttezza, integrità e fedeltà a Gesù Cristo e alla sua Chiesa.
Donazione a CNA