Diagnosi mediche: ChatGPT-4 batte i dottori ma non riesce ad aiutarli
L'IA da sola mostra maggiori capacità diagnostiche rispetto ai medici. Ma quando viene usata come supporto alle decisioni umane non riesce ad essere efficace
di Andrea Bai pubblicata il 18 Novembre 2024, alle 14:08 nel canale Scienza e tecnologiaChatGPT
Un recente studio pubblicato su JAMA Network Open ha rivelato risultati piuttosto interessanti sull'utilizzo dell'intelligenza artificiale in ambito medico, in particolare nella diagnosi delle patologie. La ricerca, che ha coinvolto 50 medici tra specializzandi e strutturati di diversi sistemi ospedalieri americani, ha dimostrato come ChatGPT-4 sia stato in grado di superare le abilità diagnostiche dei medici stessi.
Il chatbot di OpenAI ha ottenuto un punteggio medio del 90% nella diagnosi di condizioni mediche basate su casi clinici, mentre i medici che hanno utilizzato il supporto dell'IA hanno raggiunto il 76% e quelli che non lo hanno utilizzato il 74%.
La sperimentazione si è basata su sei casi clinici reali, mai pubblicati in precedenza, facenti parte di un set di 105 casi utilizzati dai ricercatori fin dagli anni '90. Questo ha garantito che ChatGPT non fosse stato precedentemente addestrato su questi specifici casi.
Lo studio ha evidenziato due problematiche principali nell'utilizzo dell'IA da parte dei medici. In primo luogo, molti professionisti hanno mostrato una certa resistenza ad accettare le diagnosi suggerite dal chatbot quando queste differivano dalle loro conclusioni. In secondo luogo, è emerso che la maggior parte dei medici non sa sfruttare appieno le potenzialità degli strumenti di IA.
Il Dr. Adam Rodman, esperto di medicina interna presso il Beth Israel Deaconess Medical Center di Boston, suggerisce che i sistemi di IA dovrebbero fungere da "estensioni del medico", offrendo preziose seconde opinioni sulle diagnosi. Tuttavia lo studio ha mostrato come sia necessario un percorso di "alfabetizzazione all'IA" prima che questo potenziale possa essere pienamente realizzato.
Ad esempio solo una piccola parte dei professionisti ha compreso che era possibile sottoporre al chatbot l'intera storia clinica per ottenere una risposta completa e articolata, mentre la maggioranza ha utilizzato l'IA come un semplice motore di ricerca per domande specifiche.
Gli autori dello studio evidenziano comunque che esso presenta alcune limitazioni: anzitutto l'indagine si è focalizzata su un singolo LLM, data la sua disponibilità commerciale e l'integrazione nella pratica clinica. Inoltre partecipanti è stato concesso l'accesso al chatbot senza una formazione esplicita sulle tecniche di progettazione rapida che avrebbero potuto migliorare la qualità delle loro interazioni con il sistema.
9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAlmeno non c'è il rischio che fugga all'estero in circa di stipendi maggiori.
concordo
sembrava che l'IA avesse problemi a fornire aiuto non il contrario, ovvero "formare i medici a sfruttarla meglio"
detto questo, molto interessante
Watsonx di IBM già nel 2017 era superiore a un dottore nel diagnosticare tumori della pelle (95% vs 86.6%). link
Questo è abbastanza naturale, visto la grande capacità dell'AI di trovare dei pattern. Però stiamo sempre parlando di una logica induttiva. Non può essere applicata a tutto, o più semplicemente in quei casi in cui bisogna fare dei ragionamenti.
Poi c'è da dire che si dovrebbe fare una comparativa gli errori di diagnosi dell'AI e dei dottori per capire a che punto siamo.
Almeno non c'è il rischio che fugga all'estero in circa di stipendi maggiori.
fra gli italiani, mica solo fra i dottori...
La nostra formazione scolastica e strutturale a livello medico è buona in realtà, ma inutile se permetti ai medici che hai formato di poter abbandonare la patria.
Ennesima dimostrazione di mancanza di sovranità da parte italiana.
Ennesima dimostrazione di mancanza di sovranità da parte italiana.
la sovranità centra poco. Anzi, quelli più "sovranisti" e la loro combriccola di alleati crimnali sono proprio quelli più devastanti per il SSN.
Ennesima dimostrazione di mancanza di sovranità da parte italiana.
Certo trasformiamo gli ospedali in lager e come prendono la laurea li mettiamo ai lavori forzati.
Sai le file agli esami di ammissione?
In tutto questo la sovranità c'entra come i cavoli a merenda, ma ti piace infilarla un po' ovunque.
Sai le file agli esami di ammissione?
E allora i costi sostenuti per la loro formazione a carico dello Stato dove li mettiamo?
Non c'è nessun lavoro forzato, ma se IO ti pago la formazione o mi ridai i soldi, o lavori al mio servizio.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".