La inteligencia artificial, lejos de consolidarse como una herramienta neutral, está reforzando patrones tradicionales de género entre adolescentes y jóvenes de 16 a 25 años. Así lo advierte un estudio de LLYC, que revela cómo los sistemas de recomendación reproducen y amplifican desigualdades históricas en la construcción de identidad, aspiraciones y vínculos sociales.

El informe, titulado “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, se basa en el análisis de casi 10.000 recomendaciones generadas por grandes modelos de lenguaje en 12 países durante 2025. Sus conclusiones apuntan a una tendencia: la tecnología no corrige los sesgos sociales, sino que los replica con mayor escala y naturalidad.
Fragilidad, dependencia y validación externa
Uno de los datos más contundentes del estudio es que el 56% de las respuestas analizadas describen a las mujeres jóvenes como “frágiles”. Esta caracterización no es aislada: la IA recomienda a las usuarias buscar validación externa para “sentirse validadas” seis veces más que a los varones, reforzando una lógica de dependencia emocional.
Además, en las interacciones con mujeres, los sistemas adoptan con mayor frecuencia un tono empático y condescendiente. En uno de cada tres casos, la IA se presenta como una especie de “amiga”, un patrón un 13% más frecuente que en las respuestas dirigidas a hombres. Esta “empatía artificial” se expresa en frases como “yo te entiendo” y aparece 2,5 veces más en conversaciones con mujeres, desplazando la orientación práctica o técnica.
Consejos distintos para vidas distintas
Las diferencias también se evidencian en el tipo de recomendaciones. Ante inseguridades personales, la IA ofrece consejos de moda un 48% más a mujeres que a hombres, mientras que a ellos les sugiere acudir al gimnasio el doble de veces. Esta divergencia refuerza estereotipos clásicos: la apariencia como eje de preocupación femenina y la acción física como respuesta masculina.
El sesgo se extiende al plano emocional. Frente a conflictos, la IA tiende a “politizar” el malestar femenino —vinculándolo al sistema o al patriarcado en un 33% de los casos— mientras que en los hombres lo interpreta como un asunto individual, asociado al autocontrol o la superación personal.
Un algoritmo que orienta vocaciones
El impacto más estructural aparece en el terreno de las aspiraciones profesionales. Según el estudio, la IA redirige hasta un 75% más las vocaciones femeninas hacia áreas como la salud y las ciencias sociales, mientras impulsa a los hombres hacia la ingeniería, el liderazgo y la resolución de problemas.
Este fenómeno, definido en el informe como un “techo de cristal programado”, anticipa una segregación laboral desde etapas tempranas. Incluso cuando una mujer ocupa posiciones tradicionalmente masculinas, la IA tiende a presentar esos casos como excepcionales o “impresionantes”, algo que no ocurre a la inversa.
La normalización de la desigualdad
Más allá de los datos puntuales, el informe advierte sobre un efecto más profundo: la naturalización de estos sesgos en una generación que utiliza la inteligencia artificial como fuente cotidiana de asesoramiento y acompañamiento. Un 31% de los adolescentes, según datos citados de Plan Internacional, afirma que conversar con un chatbot puede ser tan o más satisfactorio que hablar con un amigo.
En ese contexto, la IA deja de ser una herramienta y se convierte en un agente formativo. “No es la IA la que está sesgada, sino la realidad”, señala Luisa García, coordinadora del estudio. “La tecnología refleja y amplifica los déficits existentes: refuerza la protección sobre las mujeres hasta limitar su autonomía, perpetúa los techos de cristal y legitima roles tradicionales”.
Roles tradicionales, incluso en lo privado
El análisis también detecta sesgos en la representación de la vida familiar. El afecto aparece asociado a la figura materna en una proporción tres veces superior a la paterna, mientras que el rol del padre es presentado como secundario o de “ayudante” en el 21% de las respuestas.
Esta narrativa, advierten los investigadores, alimenta la idea de una “sobrecarga de la heroína”: mujeres que no solo deben asumir tareas de cuidado, sino hacerlo bajo estándares de excelencia moral permanente.
Un desafío que excede a la tecnología
El estudio concluye que el problema no reside exclusivamente en los algoritmos, sino en los datos y estructuras sociales que los alimentan. En la medida en que la inteligencia artificial aprende de una realidad desigual, tiende a reproducirla sin cuestionamientos.
Así, en lugar de abrir nuevas posibilidades, la IA corre el riesgo de consolidar viejos estereotipos en una etapa clave de formación personal. El desafío, advierten los especialistas, no es solo técnico, sino cultural: cambiar aquello que la tecnología refleja antes de esperar que lo transforme.


