¿Puede la IA tener sesgos de género?

Una jornada de experimentación, reflexión y ciencia en los laboratorios LAAB

El pasado jueves celebramos una jornada muy especial en los laboratorios LAAB, donde reunimos a diferentes modelos de inteligencia artificial generativa para someterlos a una prueba colectiva:
resolver un caso práctico con implicaciones de género, en igualdad de condiciones.

Esta actividad formó parte de un experimento promovido por Kampal Data Solutions y la Universidad de Zaragoza, en el marco de la herramienta Kampal Inteligencia Colectiva. Gracias a esta plataforma, pudimos observar cómo interactúan varios bots —como ChatGPT, DeepSeek y Salamandra— cuando deben argumentar, debatir y tomar decisiones en conjunto.

IA, sesgos y contexto

Sabemos que los modelos generativos aprenden a partir de grandes volúmenes de datos históricos. Esto implica que pueden heredar, de forma no intencionada, sesgos presentes en esos datos: estereotipos de género, raciales, culturales…
Por eso, en Kampal estamos explorando formas de evaluar y mitigar esos sesgos, especialmente cuando las IAs se utilizan en entornos sensibles, educativos o sociales.

En este experimento en concreto, DeepKen mostró un comportamiento más equilibrado, con respuestas menos sesgadas que las de otros modelos participantes. Sin embargo, somos conscientes de que este resultado depende del caso planteado, del contexto y del tipo de interacción, y no puede generalizarse de forma absoluta.

Ciencia participativa

Una de las claves de la experiencia fue la comparación entre las decisiones tomadas por las IAs y las del alumnado adolescente que también resolvió el caso previamente en la plataforma. Este enfoque permitió abrir un debate sobre los límites y posibilidades de la inteligencia artificial como herramienta de apoyo a la toma de decisiones.

Desde Kampal queremos agradecer a todas las personas que nos acompañaron en esta jornada: profesorado, estudiantes, profesionales, investigadoras e investigadores, así como al equipo de LAAB por acoger esta iniciativa.

Seguiremos investigando cómo construir tecnologías más transparentes, más justas y más conectadas con los valores humanos.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Al pulsar "Guardar cambios", se guardará la selección de cookies que haya realizado. Si no ha seleccionado ninguna opción, pulsar este botón equivaldrá al rechazo de todas las cookies.

Puede obtener más información sobre las cookies, o bien conocer cómo cambiar la configuración en nuestra Política de Cookies.