La inteligencia artificial está redefiniendo el mundo tal como lo conocemos. Desde la automatización de procesos hasta la toma de decisiones en sectores clave como el empleo, la salud y la educación, la IA se ha convertido en una herramienta cada vez más extendida en nuestra sociedad. Sin embargo, como cualquier tecnología, no está exenta de desafíos, especialmente en lo que respecta a la equidad y la inclusión.
Este mes de febrero se celebra el Día Internacional de la Mujer y la Niña en la Ciencia. Es una oportunidad perfecta para reflexionar sobre la importancia de la participación de las mujeres en la investigación científica y tecnológica para garantizar un desarrollo más justo y representativo. A pesar de los avances, la brecha de género en disciplinas STEM (ciencia, tecnología, ingeniería y matemáticas) sigue siendo una realidad. En el ámbito de la inteligencia artificial, esta disparidad se traduce en sesgos en los algoritmos, falta de diversidad en los equipos de desarrollo y la perpetuación de desigualdades estructurales. En este contexto, iniciativas como IA+Igual buscan analizar el impacto de la IA en el mercado laboral y garantizar que sus aplicaciones no reproduzcan desigualdades, entre ellas la de género.
Hacia la equidad en IA
El desarrollo de la inteligencia artificial es un campo en constante evolución, y es crucial contar con equipos diversos para garantizar que la tecnología sea inclusiva. “Como es un área tan nueva, es importante que todas las perspectivas sean tenidas en cuenta desde el inicio. Si solo se consideran ciertos grupos, la IA reflejará esos sesgos”, explica Mabel Morales, matemática y doctora en estadística que actualmente trabaja como investigadora postdoctoral en el Instituto de Ciencia de Datos e Inteligencia Artificial (DATAI), partner académico de IA+Igual.
Un equipo multidisciplinar en el que estén incluidas las mujeres es clave para analizar el desarrollo y usos de la Inteligencia Artificial desde el máximo número de ángulos y perspectivas. La directora de este proyecto de innovación sobre IA, Marisa Cruzado, recuerda que “la inteligencia artificial es tan compleja como el ser humano y demanda un gran capital intelectual diverso para acometer los retos y los desafíos de nuestra propia creación de manera inteligente”.
Más mujeres en los datos, mejores modelos de IA
Uno de los grandes problemas que enfrenta la inteligencia artificial es la falta de diversidad en los datos con los que se entrenan los modelos. “Al final, los modelos de IA están basados en datos. Si esos provienen mayoritariamente de, por ejemplo, hombres blancos europeos, las predicciones y decisiones que tome el sistema estarán sesgadas hacia ese grupo. ¿Y qué pasa con los demás?”, se pregunta Morales.
Uno de los casos más notorios ocurrió en el ámbito laboral, cuando un sistema de IA de Amazon diseñado para filtrar currículums penalizaba a las candidatas mujeres. La razón: el modelo fue entrenado con datos históricos de la empresa, donde predominaban los hombres en los puestos tecnológicos, y terminó replicando esa tendencia al dar menor puntuación a términos asociados con mujeres.
Además, estudios han demostrado que algunos algoritmos de IA reflejan y amplifican sesgos históricos, como ha ocurrido en el pasado con algunos sistemas de reconocimiento facial, que han mostrado mayores tasas de error en mujeres y personas racializadas porque fueron entrenados con bases de datos mayoritariamente compuestas por rostros de hombres blancos. Esto puede traducirse en identificaciones erróneas o fallos en aplicaciones de seguridad y verificación de identidad, según muestra un estudio de 2018.
En salud, también se han identificado sesgos preocupantes. Un estudio reveló que ciertos modelos de IA usados en diagnósticos médicos tenían menor precisión en mujeres, ya que los datos con los que fueron entrenados contenían más información sobre pacientes masculinos. Esto es especialmente problemático en enfermedades cardiovasculares, donde las diferencias biológicas entre sexos pueden alterar síntomas y patrones de riesgo.
Para que la IA sea verdaderamente inclusiva y equitativa, es imprescindible no solo que haya más mujeres en la ciencia y la tecnología, sino también que se garantice su representación en los datos y en los equipos que diseñan y supervisan los sistemas de inteligencia artificial.
La diversidad no solo mejora la calidad de los modelos, sino que permite detectar sesgos que, de otro modo, podrían pasar desapercibidos. “No hay que tenerle miedo a la IA si se hace bien. Pero para eso es necesario que los equipos sean diversos y que las herramientas se adapten para garantizar la equidad”, insiste Morales.
Un mensaje para las futuras científicas
Finalmente, la matemática Mabel Morales tiene un mensaje claro para las nuevas generaciones de mujeres que estén interesadas en la ciencia y la tecnología: que no se dejen influenciar por nadie que les diga que no pueden hacerlo. “Antes, muchas chicas dudaban si elegir una carrera STEM porque sentían que no era para ellas. Ahora, esto está cambiando, (…) pero sigue siendo importante reforzar el mensaje de que cualquiera puede dedicarse a la ciencia si es lo que le apasiona. Que no se dejen frenar por comentarios como ‘es muy difícil’ o ‘requiere mucho compromiso’. Si quieren hacerlo, pueden hacerlo”, concluye.
El 11F nos recuerda que la presencia de mujeres en la ciencia es clave para el avance del conocimiento y el desarrollo de tecnologías más justas e inclusivas. Iniciativas como IA+Igual o el trabajo de científicas como Mabel Morales Otero nos muestran que, con más mujeres en la ciencia, construimos una inteligencia artificial más equitativa y representativa para toda la sociedad.
0 comentarios