La IA en la medicina puede tener sesgos raciales y machistas

Un estudio en Londres reveló que la IA mal entrenada puede conllevar a diagnósticos erróneos en pacientes de ciertos géneros y grupos étnicos.

Facebook
Twitter
WhatsApp
Inteligencia artificial, Medicina, Racial, Racismo, Machismo, Género, diagnóstico, enfermedades, grupos étnicos, IA, medicina, radiología, científicos, Londres, pacientes, hombres blancos, negros, asiáticos, mujeres, dosis, La IA, sesgos, sesgos raciales y machistas,
[responsivevoice_button voice="Spanish Latin American Male" buttontext="Escuchar Noticia"]

La IA (inteligencia artificial) puede ser muy útil en nuestro día a día, sin embargo, la dependencia hacia esa tecnología podría conllevar a graves consecuencias. Un estudio realizado por un equipo de científicos del Imperial College de Londres ha revelado alarmantes sesgos raciales y de género en los resultados de la IA utilizada en servicios médicos, lo que plantea cuestiones sobre la precisión y equidad en el diagnóstico médico.

La investigación, publicada en Radiology: Artificial Intelligence, se centró en comparar los diagnósticos de radiografías de tórax realizados por un modelo de IA con aquellos realizados por expertos en radiología. Los resultados arrojaron diferencias significativas relacionadas tanto con el género como la etnia de los pacientes.

Te puede interesar: Zelda, hija de Robin Williams, le «perturba» el uso de la IA

Los resultados dejaron perplejos a los investigadores

El objetivo de la investigación era determinar si un algoritmo de IA que se basa en modelos no etiquetados puede generar diagnósticos precisos. Para ello se utilizaron dos enfoques: un algoritmo entrenado con un modelo base sin etiquetar y otro entrenado con 127.118 radiografías debidamente etiquetadas.

El estudio se llevó a cabo utilizando radiografías de tórax de 42.884 pacientes de diversos géneros y etnias. Los diagnósticos generados por la IA fueron revisados por radiólogos para evaluar su precisión.

Los resultados revelaron una eficiencia significativamente mayor en el modelo entrenado con radiografías etiquetadas. Si bien no hubo grandes diferencias para hombres blancos, se observaron sesgos notables para mujeres y personas de grupos étnicos minoritarios, como negros y asiáticos.

En particular, la etiqueta de “no hallazgo” disminuyó entre un 6.8% y 7.8% en el caso de las mujeres, mientras que la detección de líquido en los pulmones se redujo entre un 10.7% y un 11.6% en pacientes negros.

Este estudio expone un problema subyacente en el campo de la medicina y la IA: la falta de representación en los datos para entrenar algoritmos. Históricamente, los ensayos clínicos y estudios científicos se han basado en gran medida en muestras de voluntarios masculinos blancos.

Dicha falta de diversidad en la investigación médica puede llevar a dosis de medicamentos mal calculadas para mujeres y a una falta de comprensión sobre cómo ciertas enfermedades afectan a diferentes grupos étnicos.

Ante tal situación, se corre el riesgo de que estos modelos tengan sesgos significativos que afecten negativamente a pacientes de grupos marginados.

Fuente: Hipertextual

Te puede interesar: MSG Sphere revolucionará para siempre los espectáculos en vivo

Facebook
Twitter
WhatsApp

XILON

Melgar Resort

Contenido de la Noticia

Te Puede Interesar