Luglio 5, 2022

NbaRevolution

Covid crisi politica in Italia

L’intelligenza artificiale può determinare l’etnia delle persone nelle immagini a raggi X e solleva questioni etiche

Nuovi modelli di apprendimento profondo basati sull’intelligenza artificiale (AI) possono determinare l’etnia di una persona dalle immagini a raggi X che sarebbe impossibile da monitorare per gli occhi di un medico. I risultati sono pubblicati sulla rivista La Lancet Salute DigitaleSollevare domande preoccupanti sul ruolo dell’intelligenza artificiale nella diagnosi, nella valutazione e nel trattamento medico: i pregiudizi razziali possono essere applicati inavvertitamente dai programmi per computer durante l’analisi di tali immagini?

L’intelligenza artificiale può determinare l’etnia dei pazienti semplicemente guardando le immagini a raggi X. Foto: Tridsanu Topet –

Un team di ricercatori sanitari di Stati Uniti, Canada e Taiwan ha addestrato la propria IA utilizzando migliaia di immagini a raggi X etichettate con i dettagli razziali di un paziente. Quindi ha testato il sistema con altre immagini a raggi X sconosciute.

Secondo gli scienziati, il modello AI è stato in grado di prevedere l’identità razziale del paziente in queste immagini con una precisione sorprendente, anche quando le scansioni sono state eseguite su persone della stessa età e sesso. In alcuni set di immagini, il sistema ha raggiunto livelli del 90%.

“Il nostro obiettivo era valutare in modo completo la capacità dell’IA di riconoscere l’identità razziale di un paziente attraverso immagini mediche”, hanno affermato i ricercatori nel loro articolo. “Mostriamo che i modelli standard di apprendimento profondo dell’IA possono essere addestrati per prevedere l’ictus da immagini mediche ad alte prestazioni in più modalità di imaging, che vengono mantenute in condizioni di convalida esterne”.

La ricerca fa eco ai risultati di uno studio precedente che ha rilevato che le scansioni di immagini a raggi X AI avevano maggiori probabilità di perdere i segni di malattia nei neri. Per evitare che ciò accada, gli scienziati devono prima capire perché ciò accade.

READ  Effetto placebo, l'esperienza fondante era una leggenda

Per sua stessa natura, l’IA imita il pensiero umano per rilevare rapidamente i modelli nei dati. Tuttavia, significa anche che puoi inavvertitamente soccombere allo stesso tipo di pregiudizi. Peggio ancora, la sua complessità rende difficile separare i pregiudizi che intessiamo in esso.

I sistemi di intelligenza artificiale possono replicare i pregiudizi umani?

Attualmente, gli scienziati non sanno perché un sistema di intelligenza artificiale sia così bravo a identificare l’etnia dalle foto che non contengono tali informazioni, almeno non in superficie.

Anche quando vengono fornite informazioni limitate, le prove sulla densità ossea vengono rimosse, ad esempio, o viene posta l’attenzione su una piccola parte del corpo, i modelli riescono ancora sorprendentemente a indovinare l’identità razziale menzionata nel fascicolo. Il sistema può trovare segni di melanina (il pigmento che dà colore alla pelle) che sono ancora sconosciuti alla scienza.

Questa ricerca si aggiunge a un crescente mucchio di prove che i sistemi di intelligenza artificiale possono spesso riflettere pregiudizi e discriminazioni umane, che si tratti di razzismo, sessismo o qualcos’altro. Dati di allenamento distorti possono portare a risultati distorti, rendendoli meno utili e persino discutibili.

Questo deve essere valutato in modo che l’IA possa ottenere i dati molto più velocemente degli esseri umani, in qualsiasi cosa, dalle tecniche di rilevamento delle malattie ai modelli di cambiamento climatico.

Il reste encore de nombreuses question sans réponse dans l’étude, mais pour l’instant, il est importante d’être conscient de la possibilité que des préjugés raciaux apparaissent dans les systèmes d’IA – no surtout all de leponsé le siurus In the futuro.

“Dobbiamo prenderci una pausa”, ha detto al Boston Globe lo scienziato e medico Leo Anthony Seely del Massachusetts Institute of Technology (MIT). “Non possiamo affrettarci a introdurre algoritmi negli ospedali e nelle cliniche finché non siamo sicuri che non stiano prendendo decisioni razziste o sessiste”.

READ  Firenze. Festival dell'Astronomia: un invito ai sogni ad occhi aperti

Hai visto i nuovi video su Youtube aspetto digitale? Iscriviti al canale!