Ricordo con un sorriso nell’anticamera di una dottoressa che diceva, indirizzandosi ai pazienti, di evitare di presentarle le diagnosi del dottor Google. Fotografa così una realtà diffusa - e capita anche a me - di fare ricerche al primo dolorino sconosciuto.
Interessante e seria una riflessione sul tema trovata sul Corriere della Sera di Andrea Piccioli Direttore generale presso Istituto Superiore di Sanità.
Così esordisce e tutti ci riconosciamo: ”Recentemente, un amico ha digitato sullo smartphone una domanda elementare: «Perché mi trema la mano?». In pochi istanti, un'intelligenza artificiale ha generato un ventaglio di risposte plausibili, citando malattie neurologiche degenerative, studi scientifici e persino suggerimenti terapeutici.
Una risposta convincente, coerente, autorevole. Peccato che fosse falsa. Quella notte, il mio amico ha attraversato il purgatorio delle paure moderne, per poi scoprire dal medico, il mattino dopo, la vera diagnosi: troppo caffè.
Questo episodio è l'emblema del paradosso del nostro tempo: siamo circondati da errori perfettamente credibili”.
Più avanti osserva su questa incidenza del Web: “dati del MIT (Massachusetts Institute of Technology) pubblicati sulla rivista scientifica Science sono spietati: le notizie false corrono sei volte più veloci della verità.
Nel campo della salute, questo significa che una cura miracolosa priva di fondamento può raggiungere milioni di persone prima che la comunità scientifica abbia il tempo di smentirla. Il rischio più sottile risiede nelle «allucinazioni» delle AI generative: sistemi che inventano protocolli e dosaggi con una proprietà di linguaggio tale da risultare indiscutibili.
Il punto è che la macchina non cerca la verità, ma la coerenza statistica. Non restituisce ciò che è vero, ma ciò che appare verosimile.
Qui l'innovazione incontra una fragilità antica della natura umana.
Giacomo Leopardi scriveva che «il piacere più solido di questa vita è il piacere vano delle illusioni» ”.
Applicato alle diagnosi ”fai da te” impressiona. Più avanti ancora il Dottor Piccioli chiarisce: ”Eppure, demonizzare la tecnologia sarebbe un errore. L'intelligenza artificiale può essere uno straordinario strumento di difesa, se usata per mappare la disinformazione in tempo reale e costruire un «vaccino comu-nicativo».
Come ricordava lo storico Melvin Kranzberg, la tecnologia non è mai neutrale: dipende dall'uso che ne facciamo.
La sfida che ci attende non è solo tecnologica, ma culturale e civile. Servono algoritmi responsabili, istituzioni vigili e cittadini dotati di un nuovo spirito critico.
Perché la battaglia decisiva della nostra era non si combatte tra uomini e macchine, ma tra la verosimiglianza e la verità”.
Concordo in pieno. Proprio per la diagnosi l’Intelligenza Artificiale darà sempre più una mano ai medici, mettendo a disposizione la casistica sui casi clinici e rafforzando le reti che esistono per curare meglio determinate nella malattia.
A me, dopo una visita di lavoro a Google, aveva molto colpito l’uso dell’IA sul fascicolo sanitario, se opportunamente alimentato dalle notizie sul paziente.
La proposta tecnologica riguardava l’uso in Pronto Soccorso per avere, da parte del personale sanitario, sia ha un miglior triage per la priorità di chi attende di essere visitato che per il medico curante per capire la storia sanitaria del malato che si trova ad esaminare. La tecnologia digitale garantisce infatti un sunto istantaneo del paziente che diventa utile per essere più precisi su chi privilegiare nella visita e aiuta nella diagnosi del medico.
Un caso fra gli altri per distinguere fra l’uso buono e quello cattivo di tecnologie da adoperare con intelligenza.