Due ricerche, una di Oxford e una della Duke University, hanno studiato i rischi e le possibilità dei chatbot che danno pareri medici su migliaia di conversazioni. Scoprendo che…
Eugenio Spagnuolo
23 marzo – 18:04 – MILANO
Più di 230 milioni di persone ogni anno interpellano un chatbot AI per un problema di salute. Sintomi, dosaggi, persino diagnosi da confermare: la tentazione è comprensibile, specie in Paesi (come gli USA) dove una visita medica può costare quanto uno stipendio. Ma quanto può sbagliare l’intelligenza artificiale in medicina e in quali casi può invece aiutarci? Due studi recenti, di Oxford e della Duke University, hanno cercato di rispondere, testando i chatbot su scenari clinici reali.
Diagnosi errate—
Il primo studio ha coinvolto 1.300 partecipanti: metà di loro ha cercato consigli attraverso modelli linguistici come ChatGPT, l’altra ha usato fonti tradizionali (libri, internet, amici ecc). Il risultato: i modelli AI non hanno prodotto esiti migliori rispetto a una normale ricerca o al buon senso del singolo. “Nonostante l’entusiasmo, l’AI non è ancora pronta a fare il medico”, ammette Rebecca Payne, responsabile dello studio.




