L’intelligenza artificiale non capisce “no” e questo è un grosso problema per i robot medici


L’intelligenza artificiale è sempre più presente nelle nostre vite, dai chatbot che rispondono alle domande agli algoritmi che analizzano i raggi X. Ma cosa succede se questi sistemi non riescono a capire la parola più semplice “no” nel linguaggio umano?

Guarda l’ultima produzione video techrider.ro

-Il articolo continua di seguito –

Questo non è un problema filosofico, ma un problema tecnico con gravi implicazioni. Nuova ricerca Molti modelli di intelligenza artificiale, compresi quelli utilizzati nel campo medico, spesso non riconoscono la negatività, riportati Nuovo scienziato.

In particolare, non distingue tra immagini che mostrano segni di polmonite e immagini che non mostrano segni di polmonite.

Se un medico si basa su un sistema di interpretazione di immagini mediche, tale confusione può portare a gravi errori diagnostici o di trattamento.

Modello di negazione intellettuale e cieco

I bambini impareranno rapidamente il significato di “no”. Invece, molti modelli sembrano ignorarlo come se non ci fossero parole di negatività. “Tutti questi sono deboli in qualche modo in questo capitolo”, ha dichiarato Kumail Alhamoud del Massachusetts Institute of Technology (MIT), l’autore principale dello studio.

Lui e il suo team hanno testato 11 modelli AI che analizzano sia il linguaggio che la fotografia. Apertoe AIMV2, l’ultimo modello superiore. Due di loro erano appositamente addestrati con imaging medico.

I ricercatori hanno creato migliaia di immagini – alcune contenenti oggetti specifici e descrizioni generate come tipi di “immagine gatto” e “immagini senza gatto”. In totale, ci sono quasi 80.000 esempi.

Test semplici, risultati deboli

Nel primo test, AIS è stato chiesto di trovare una foto di un particolare oggetto, ma non sono stati inclusi altri oggetti. Ad esempio, un tavolo senza sedie. Il modello ha funzionato bene quando si è trattato di trovare l’oggetto corrente (circa l’80% di precisione), ma ha rimosso molto se necessario per escludere l’oggetto.

In un altro test, il modello ha dovuto scegliere l’esempio “raggi X che mostrano segni di polmonite” rispetto a “raggi X senza segni di polmonite” per le immagini mediche. Anche modelli specializzati ottenuti con precisione del 40%. È peggio che sceglierlo in modo casuale.

Perché questo è un problema serio?

I risultati mostrano chiari. C’è un pregiudizio nell’attuale modello di affermazione: tendono a credere che devono confermare l’esistenza di qualcosa piuttosto che assente. In lingue semplici, l’IA non capisce quando dici “No”.

In medicina, questa restrizione è pericolosa. “È essenziale sapere non solo i sintomi del paziente, ma anche ciò che non ha, al fine di escludere la diagnosi e comprendere correttamente la situazione”, spiega Karin Verspoor, un esperto di elaborazione del linguaggio naturale che non è coinvolto nella ricerca.

E con i chatbot, il problema persiste. Il modello di tipo “trans” – la colonna vertebrale di molti sistemi moderni – è adatto alla comprensione dei significati in base al contesto. Ma la negatività come “no” e “no” funziona in modo diverso. Appare ovunque nella frase e possono cambiare completamente il significato. Questo è difficile da gestire perché ha.

Puoi fare la cosa giusta? Sì, ma solo parzialmente

I ricercatori hanno tentato di “imparare” il modello usando esempi appositamente creati per comprendere meglio la negazione. risultato? Le ricerche di immagine hanno migliorato le prestazioni del 10%, mentre i test a scelta multipla sono migliorati del 30%. Tuttavia, rimangono i problemi di base.

“Le soluzioni finora sono come le patch – non trattano ferite profonde”, afferma il co -autore Marzyeh Ghassemi.



Source link

Lascia un commento