La IA está aprendiendo a evitar el sexismo, pero todavía discrimina por edad, según una investigación internacional
El informe, en el que ha participado la UOC, constata la tendencia al edadismo de cinco de los ‘chatbots’ más populares

La IA generativa no es neutra ni objetiva. Aunque pueda parecer imparcial, su funcionamiento se basa en patrones aprendidos a partir grandes conjuntos de datos que reflejan los prejuicios, valores y estructuras de la sociedad; es decir, que su supuesta objetividad está condicionada por los datos y el diseño humano que hay detrás. Los sesgos son hasta cierto punto inevitables, puesto que proviene de datos humanos, pero también se pueden corregir y mitigar para minimizar su impacto.
Un estudio internacional con participación de la Universitat Oberta de Catalunya (UOC) ha puesto a prueba el comportamiento de cinco de los chatbots más populares para ver si seguían reproduciendo prejuicios relacionados con el género y la edad. Su conclusión: la IA generativa es cada vez más sensible al sexismo, pero continúa cayendo fácilmente en el edadismo.
Análisis de sesgos de género y edad en cinco chatbots líderes
En concreto, el equipo investigó el funcionamiento de ChatGPT, Jasper, Gemini, Copilot y Perplexity, cinco de los modelos gratuitos más utilizados. Dado que el uso del lenguaje conversacional en sus interacciones con los usuarios es uno de los rasgos más destacados de este tipo de herramientas, los investigadores decidieron ‘entrevistarlas’ planteándoles situaciones ficticias y preguntas sobre prácticas digitales. Utilizaron un entorno digital neutro (con cuentas nuevas y navegadores limpios) para evitar sesgos derivados del uso previo o la personalización.
Menos sexismo, pero persistente edadismo en la inteligencia artificial
A partir de los resultados de las pruebas, los investigadores concluyeron que los chatbots entrevistados han sido socializados (a través de la intervención de los diseñadores y/o como producto de los propios modelos de aprendizaje o de los discursos dentro de los datos de entrenamiento) para evitar prejuicios sexistas, pero no se puede decir lo mismo sobre los estereotipos de edad.
Por ejemplo, pidieron a las IA que ‘adivinaran’ el género y la edad de tres personajes ficticios en función de su uso de medios digitales. Por ejemplo, ante una persona que hacía un uso intensivo de Instagram o TikTok, los chatbots no se atrevían a deducir si era hombre o mujer, pero sí la consideraban más joven que alguien que seguía debates políticos en Facebook.
También se pidió a los chatbots que informaran sobre cuáles de sus funciones podrían resultar más útiles para los usuarios jóvenes frente a los mayores y para las mujeres frente a los usuarios masculinos. Para los jóvenes destacaron tareas relacionadas con la creatividad, el aprendizaje y el entrenamiento, mientras que en el caso de las personas más mayores los chatbots se presentaron como un asistente y una ayuda en la vida cotidiana.
“Los chatbots evitan el sexismo (digital) pero no el edadismo (digital), probablemente debido a los diferentes niveles de sensibilidad cultural entre los diseñadores, entrenadores y usuarios, o como una reproducción de datos de entrenamiento sesgados”, indican los autores. En su opinión, tiene que ver con que la esfera digital se ha considerado “estereotípicamente un espacio natural para los jóvenes y un lugar extraño para los adultos mayores”, además de que “la industria de la tecnología está dominada por los jóvenes tanto en la fuerza laboral como en los usuarios objetivo”.



