Diagnosi pediatriche, l’intelligenza artificiale sbaglia 80 volte su 100

ChatGPT risponde a cento quesiti clinici, nel 72% dei casi la risposta è completamente errata. I ricercatori: “Esperienza umana ancora essenziale”

Redazione
2 Min di lettura

Nessuna preoccupante sostituzione professionale all’orizzonte, e neanche una possibilità di coadiuvare l’ingente carico dei medici in corsia. L’intelligenza artificiale non è ancora pronta a fornire un aiuto concreto ai professionisti sanitari nella formulazione delle diagnosi nei pazienti in età pediatrica. Lo studio condotto da ricercatori del Cohen Children’s Medical Center di New York e pubblicato su Jama Pediatrics mostra difatti che ChatGPT, nella versione 3.5, se interrogata su casi clinici sbaglia l’83% delle diagnosi.

L’intelligenza artificiale trasformerà l’assistenza pediatrica?

“L’intelligenza artificiale è in rapida evoluzione e le tecnologie su essa basate probabilmente trasformeranno l’assistenza sanitaria pediatrica”, si legge in un editoriale pubblicato a corredo dello studio. “L’AI – prosegue l’editoriale – può supportare un’interpretazione accurata ed efficiente della radiografia del torace e delle immagini retiniche, e probabilmente in futuro migliorerà la diagnosi, la previsione del rischio e la scelta del trattamento”. Tuttavia, dati alla mano, non esistono ad oggi molte evidenze sull’accuratezza diagnostica di questi strumenti nei bambini.

I risultati della ricerca: risposte errate o inutili

La ricerca in oggetto ha sottoposto ChatGPT 3.5 a ben cento quesiti clinici, constatando che il chatbot sbagliava nell’83% dei casi. In particolare, nel 72% dei casi la risposta era completamente errata, mentre nel restante 11% dei casi le risposte si avvicinavano alla diagnosi corretta, ma erano troppo generiche e, dunque, inutilizzabili.

Diagnosi pediatriche e intelligenza artificiale, parola agli studiosi

“Le prestazioni diagnostiche deludenti del chatbot osservate in questo studio sottolineano il ruolo inestimabile dell’esperienza clinica. Il chatbot valutato in questo studio, a differenza dei medici, non è stato in grado di identificare alcune relazioni, come quella tra autismo e carenze vitaminiche“, è il commento dei ricercatori, secondo i quali “i medici dovrebbero continuare a studiare le applicazioni” di questi strumenti nella medicina. Anzi, proprio il contributo dei medici potrebbe aiutare ad affinare le loro capacità: “I medici – aggiungono gli studiosi – dovrebbero assumere un ruolo più attivo nella generazione di set di dati per prepararli intenzionalmente alle funzioni mediche“, concludono.

© Riproduzione riservata

Condividi questo Articolo