Inteligencia Artificial y Sesgo de Género: Inteligencia Colectiva

El pasado 18 de junio, presentamos en los Laboratorios LAAAB de Zaragoza los resultados de un experimento pionero sobre inteligencia colectiva, IA y sesgo de género, desarrollado en colaboración con la Universidad de Zaragoza. Este trabajo se enmarca dentro del compromiso de Kampal con el uso ético de la tecnología y la generación de conocimiento socialmente relevante.

El caso de estudio: Lorena y el ciberacoso

El experimento partía de una situación realista de violencia digital: «Lorena», una adolescente, publica un vídeo en TikTok y es víctima de acoso. Se pidió opinión sobre el caso a dos grupos:

  • Modelos de IA (ChatGPT, Deepseek y Salamandra), respondiendo desde las perspectivas de “hombre” y “mujer”.
  • Adolescentes reales, que ofrecieron su visión sin ningún filtro tecnológico.

¿Qué mostró la comparación?

  • La IA actúa como agente ético ideal: empatiza, condena el acoso y nunca responsabiliza a la víctima.
  • Los humanos, en cambio, reflejan una realidad compleja: desde apoyo genuino hasta victim blaming, lenguaje sexista y normalización de la violencia.
  • Los modelos de IA también replican estereotipos de género cuando se les pide simular un rol masculino o femenino: ellos actúan con firmeza y condena; ellas con empatía y análisis emocional.

Principales hallazgos

  • Deepseek: el más empático y emocional, simula lenguaje adolescente con gran realismo.
  • ChatGPT: responde con tono didáctico, estructurado y coherente.
  • Salamandra: limitado, sin generación de ideas propias.
  • Participantes humanos: enorme variabilidad, incluyendo respuestas crudas, sexistas o contradictorias.

Conclusiones

  1. No todas las IA son iguales: la capacidad de generar respuestas éticas y contextualizadas varía entre modelos.
  2. La IA no es neutral: perpetúa estereotipos según los datos con los que ha sido entrenada.
  3. Existe una brecha entre el discurso ideal (IA) y la realidad social (humanos), especialmente entre adolescentes, donde persisten prejuicios y actitudes problemáticas ante el consentimiento digital.

Desde Kampal seguiremos investigando cómo las tecnologías pueden contribuir a una sociedad más justa, y cómo herramientas como Kampal Inteligencia Colectiva pueden ayudarnos a detectar, comprender y abordar sesgos sociales.

📥 Si quieres más información sobre este proyecto o colaborar con nosotros en nuevas líneas de investigación, ¡contáctanos!

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Al pulsar "Guardar cambios", se guardará la selección de cookies que haya realizado. Si no ha seleccionado ninguna opción, pulsar este botón equivaldrá al rechazo de todas las cookies.

Puede obtener más información sobre las cookies, o bien conocer cómo cambiar la configuración en nuestra Política de Cookies.