/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

L’Intelligenza Artificiale è un’arma a doppio taglio, può ingannare i medici

L’Intelligenza Artificiale è un’arma a doppio taglio, può ingannare i medici

Necessarie misure per garantire la sua sicurezza e affidabilità

21 dicembre 2023, 10:29

di Benedetta Bianco

ANSACheck

L’Intelligenza Artificiale applicata all’assistenza sanitaria può essere un’arma a doppio taglio (fonte: freepik) - RIPRODUZIONE RISERVATA

L’Intelligenza Artificiale applicata all’assistenza sanitaria può essere un’arma a doppio taglio (fonte: freepik) -     RIPRODUZIONE RISERVATA
L’Intelligenza Artificiale applicata all’assistenza sanitaria può essere un’arma a doppio taglio (fonte: freepik) - RIPRODUZIONE RISERVATA

L’Intelligenza Artificiale applicata all’assistenza sanitaria può essere un’arma a doppio taglio: può migliorare le decisioni prese dai medici ma può anche ingannarli, se basata su dati errati o distorti, e questo anche se viene fornita ai professionisti una spiegazione del ragionamento fallato seguito dal sistema. Lo ha scoperto uno studio pubblicato sulla rivista Jama dell’Associazione americana dei medici e guidato dall’Università americana del Michigan. Vista l'importanza delle decisioni prese in ambito sanitario, gli autori sottolineano la necessità di prendere adeguate misure per garantire la sicurezza e l’affidabilità dell’IA in questo campo.

I ricercatori guidati da Sarah Jabbour hanno effettuato un esperimento focalizzato sui pazienti con insufficienza respiratoria acuta. Determinare le cause di questo disturbo può essere molto difficile e l’accuratezza delle diagnosi effettuate dai medici si aggira intorno al 73%. Ai 457 partecipanti, tra medici, assistenti e infermieri, è stato chiesto di fare una diagnosi e di formulare una terapia con l’aiuto di un sistema basato sull’AI: la loro precisione è aumentata del 2,9% per coloro che hanno ricevuto solo la decisione dell’IA, e del 4,4% nel caso in cui veniva fornita anche la spiegazione di tale decisione.

Successivamente, gli autori dello studio hanno presentato agli specialisti anche dei sistemi intenzionalmente addestrati per essere distorti e fornire risultati errati: in questo caso, la loro precisione è diminuita dell’11,3%, un calo che non riusciva ad essere corretto neanche quando si evidenziava esplicitamente che l’IA si stava basando su informazioni sbagliate. “I modelli di Intelligenza Artificiale sono vulnerabili a scorciatoie e correlazioni sbagliate trovate nei dati con cui vengono addestrati”, spiega Jenna Wiens, co-autrice dello studio: “Se i medici si affidassero a un modello del genere, ciò potrebbe amplificare le distorsioni esistenti”.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza