Poullet sottolinea che “c’è una privatizzazione dell’offerta dei servizi medici”, e “sempre più si vedono le compagnie big tech entrare in questo grande mercato”.
Il primo problema, spiega, “è quello dell’autonomia delle persone. Ci troviamo di fronte ad un sistema opaco. Le persone danno dati, ma non sappiamo esattamente cosa succederà con quei dati. C’è un diritto di essere informati”.
Allo stesso tempo, c’è “un diritto ad avere una spiegazione umana per una decisione presa dall’intelligenza artificiale”.
E poi c’è il tema dell’eutanasia, e delle macchine che decidono quando staccare la spina. “Anche per questo, si deve garantire il diritto delle persone di rifiutare di essere sottomesse ad un sistema di intelligenza artificiale”, e “deve essere chiaro scegliere tra l’essere esaminato da un robot e da una persona”.
E poi, Poullet dettaglia: “Il diritto all’integrità fisica, a partire dalla nostra mente, è la cosa più importante”.
Diana Ferro, ricercatrice, lavora al Bambino Gesù. “La cosa importante – spiega – è di non perdere di vista l’identità umana mentre si attiva l’ultima tecnologia”. Perché l’intelligenza artificiale, le risposte che dà, suona credibile, professionale, standard, ma con quelle si perde anche l’imperfezione umana, la differenza di opinione, quella tipicità propria dell’essere umano.
Il problema, aggiunge, è che il medico debba essere “comunque consapevole del processo”. Anche perché l’intelligenza artificiale c’è sempre stata in medicina, la tecnologia è sempre stata usata, ma ci sono stati anche tanti “inverni”, ovvero momenti in cui la tecnologia aveva raggiunto un punto in cui per un po’ si fermava perché non c’era un nuovo hardware. Ma la tecnologia generativa questo limite è stato superato.
Il professor João Santos Pereira, dell’Università Cattolica di Lisbona, ha delineato lo scenario mondiale nel suo intervento: l’Italia e la tecnologia che aiuta nelle scelte mediche, l’India che viene utilizzata per creare maggiore accesso e trasparenza alle cure sanitarie, in Nord-America si parla del modo di prevedere i disturbi cardio-vascolari.
Santos Pereira nota che l’intelligenza artificiale ha permesso anche di creare reti cliniche di sicurezza laddove la performance umana varia, sebbene “la validazione umana sarà sempre richiesta per importanti decisioni diagnostiche”. E tuttavia “gli algoritmi possono mettere in luce problemi, trovare condizioni rare, semplicemente migliorare nel farlo senza che la qualità sia colpita”, e questo funziona bene “laddove l’accesso alla conoscenza degli esperti è limitata, come succde in India”.
Santos nota che nel Nord America si è superato il confine della diagnostica, e i modelli di intelligenza artificiale arrivano persino a fare predizioni, grazie a “un passaggio fondamentale negli algoritmi dell’intelligenza artificiale: piuttosto che classificare o analizzare i dati, le nuove versioni di intelligenza artificiale hanno l’obiettivo di creare o generare nuovo contenuto”.
Santos mette comunque in luce i problemi: dalla gestione dei dati e il modo in cui sono utilizzati, anche perché “è importante notare che il tipo di dati usati per allenare gli algoritmi dell’intelligenza artificiale determinerà il tipo di risposte che verranno date”.
Poi c’è la questione di come estrapolare i dati, quella delle infrastrutture e, infine, le sfide correlate alla trasparenza, perché “la maggior parte degli algoritmi generativi IA forniscono risposte che non sono facilmente spiegabili, portando a cosiddetti ‘problemi di scatola nera’.”
Iscriviti alla nostra newsletter quotidiana
Ricevi ogni giorno le notizie sulla Chiesa nel mondo via email.
Nell'ambito di questo servizio gratuito, potrete ricevere occasionalmente delle nostre offerte da parte di EWTN News ed EWTN. Non commercializzeremo ne affitteremo le vostre informazioni a terzi e potrete disiscrivervi in qualsiasi momento.
E poi, c’è la minaccia alla professione medica, che non viene sostituita, ma viene considerata meno in ragione delle sue abilità e porta persino a perdere le abilità stesse – effetti “già misurati nella professione medica”.
La sfida più grande, conclude Santos, è quella della regolazione e governance. Servono “chiari confini”, considerando anche che l’AI sta cambiando profondamente la medicina oggi e che la diagnostica può essere sempre più automatizzata.
Therese Lysaught, teologa e bioeticista, membro della Pontificia Accademia per la Vita, ha ricordato che questo confronto è l’inizio di un percorso. “Sapete – ha detto – che la bioetica cattolica tende ad essere reazionaria, cioè a reagire quando qualcosa avviene. E abbiamo reagito su questo tema, ma lo abbiamo fatto quando il tema è molto nuovo, e posso dire che la Pontificia Accademia per la Vita lo ha messo in cima alla sua agenda e sta impegnandosi in un modo più proattivo che reattivo per aiutare a delineare una conversazione in maniera intedisciplinare a dialogica”.
In particolare, Lysaught ha messo in luce “la tensione sulla tendenza a umanizzare la tecnologia, a dare alla tecnologia queste caratteristiche umane. Ma l’intelligenza artificiale ha memoria, ma non è in realtà intelligente e non ha memoria nello stesso modo in cui l’abbiamo noi. E dunque diamo caratteristiche umane all’intelligenza artificiale, e facciamo l’inverso con noi, attribuendoci termini meccanici”.