
Entrenada para tratar al ‘varón blanco estándar’: inteligencia artificial y sesgo de género en salud
La IA cada vez está más presente en la atención sanitaria, especialmente procesando datos para diagnósticos y pronósticos. Pero desde la OMS se ha advertido que si no se diseñan adecuadamente los algoritmos existe el riesgo de que la inteligencia artificial repita sesgos raciales o de género que infravaloren las necesidades de algunas minorías. Pero además en The Conversation señalan que uno de los grandes retos reside en proporcionar datos de entrenamiento que no repliquen el patrón extendido durante décadas en la investigación sanitaria que consiste en uso del “varón blanco estándar” como perfil clínico de referencia. Esto ha contribuido a invisibilizar los síntomas y particularidades fisiológicas de las mujeres y se corre el riesgo, si no se corrige ahora, de repetir este patrón.
Blanca Obón Azuara, Departamento de Sanidad de Aragón; Carmen Vives Cases, Universidad de Alicante; Christian Gil-Borrelli, Osakidetza – Servicio Vasco de Salud; David Palma Díaz, Maastricht University; Isabel Gutiérrez Cía, Instituto Aragonés de Ciencias de la Salud y Marta Puig García, Universidad Miguel Hernández
La integración de la inteligencia artificial (IA) en la práctica clínica a través de herramientas de diagnóstico y pronóstico ofrece una oportunidad sin precedentes para mejorar la salud. Sin embargo, es fundamental asegurar que sus algoritmos se desarrollen de manera equitativa.
Porque, tal y como advierte la Organización Mundial de la Salud, la IA puede reproducir y amplificar sesgos preexistentes en los datos y equipos de desarrollo. Es un riesgo epidemiológico emergente. Un ejemplo paradigmático se observa en algoritmos de gestión sanitaria con sesgos raciales, que infravaloran las necesidades de poblaciones minoritarias.
Si los algoritmos epidemiológicos son diseñados por equipos homogéneos, existe un riesgo de agravar las desigualdades. Y eso se traduce en una gestión poco igualitaria de los recursos.
Invisibilidad de datos
Uno de los principales desafíos reside en los datos históricos de entrenamiento. En salud, ha sido práctica extendida el uso del “varón blanco estándar” como perfil clínico de referencia. Esta aproximación invisibiliza sistemáticamente los síntomas, necesidades y particularidades fisiológicas de las mujeres.
Cuando un algoritmo se adiestra con datos no representativos, su capacidad predictiva es menos precisa para los grupos infrarrepresentados. Investigaciones revelan que hasta un 31 % de los estudios sobre IA en salud omiten el género en sus conjuntos de datos. Esta invisibilidad distorsiona la planificación de políticas sanitarias y estrategias de prevención y tratamiento.
Es un fenómeno que trasciende lo sanitario. Los grandes modelos de lenguaje (LLM) tienden a asociar una mayor responsabilidad en la crianza y cuidados a las mujeres. Aprendido de los corpus de texto, este sesgo refleja normas sociales tradicionales y afecta a la igualdad en la conciliación.
Un impacto con múltiples ramificaciones
El sesgo de género algorítmico es un desafío que afecta a diversos ámbitos:
- Salud. Algunos sistemas de IA muestran un rendimiento inferior en mujeres, especialmente en el diagnóstico, la predicción y la detección de las enfermedades cardiovasculares.Además, modelos como GPT-4 pueden evaluar de forma diferente el riesgo de enfermedad coronaria en las mujeres. Si las organizaciones adoptan herramientas sesgadas para estandarizar protocolos, las guías clínicas resultantes automatizarán estas desigualdades a gran escala.
- Representación profesional. La IA generativa refuerza estereotipos de género. Por ejemplo, estos sistemas representan a hombres como médicos especialistas en un 82 % de las imágenes, aunque solo ocupan el 47 % de dichos cargos. Las mujeres son excluidas por sistema de determinadas especialidades como urología o traumatología, lo que crea un “techo de cristal algorítmico” donde la autoridad médica se vuelve visualmente masculina, validando así los sesgos a nivel institucional.
Repercusiones para la epidemiología y la salud pública
Desde la salud pública, el sesgo de género en la IA plantea los siguientes desafíos estructurales:
- Vigilancia epidemiológica comprometida: los sistemas de vigilancia basados en IA pueden generar estimaciones sesgadas de prevalencia e incidencia en mujeres si los algoritmos están entrenados con datos no representativos.
- Inequidad en recursos sanitarios: algoritmos que predicen riesgo de hospitalización pueden subestimar las necesidades de las mujeres, materializándose en un menor acceso a cuidados intensivos y la perpetuación de inequidades en la asignación de recursos.
- Ineficacia preventiva: los modelos de estratificación de riesgo pueden fallar al identificar a mujeres en situación de vulnerabilidad en cribados de cáncer o prevención cardiovascular, dejando a una parte de la población desprotegida.
- Perpetuación de determinantes sociales: el sesgo en los sistemas de inteligencia artificial aplicados al empleo o las finanzas perpetúa la precariedad laboral y pobreza, factores de riesgo sólidamente establecidos para el desarrollo enfermedades crónicas.
- Erosión de la confianza: diagnósticos menos precisos y retrasos en la atención erosionan la confianza de las mujeres en el sistema sanitario, con consecuencias directas en la aderehencia a los tratamientos y la participación en programas de salud pública.
En definitiva, la inteligencia artificial tiene un gran potencial para transformar la salud, pero su desarrollo debe ser inclusivo y basado en evidencia epidemiológica para no perpetuar la desigualdad. Desde la salud pública, tenemos la responsabilidad de guiar el desarrollo tecnológico para reducir, y no amplificar, la brecha de género.
Artículo escrito con el asesoramiento de la Sociedad Española de Epidemiología.![]()
Blanca Obón Azuara, Especialista en Medicina Preventiva y Salud Pública y en Medicina Intensiva, Departamento de Sanidad de Aragón; Carmen Vives Cases, Catedrática de Medicina Preventiva y Salud Pública. Directora de la Unidad de Igualdad. Universidad de Alicante, Universidad de Alicante; Christian Gil-Borrelli, Physician, Preventive Medicine and Public Health Specialist, Osakidetza – Servicio Vasco de Salud; David Palma Díaz, MD, MPH, PhD (c), Maastricht University; Isabel Gutiérrez Cía, Servicio de Medicina Intensiva Hospital Clínico Universitario «Lozano Blesa» de Zaragoza. SALUD, Aragón, Instituto Aragonés de Ciencias de la Salud y Marta Puig García, Doctora en Salud Pública, Universidad Miguel Hernández
Este artículo fue publicado originalmente en The Conversation. Lea el original.

Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.






