Inteligencia Artificial y Sesgo de Género: Inteligencia Colectiva
El pasado 18 de junio, presentamos en los Laboratorios LAAAB de Zaragoza los resultados de un experimento pionero sobre inteligencia colectiva, IA y sesgo de género, desarrollado en colaboración con la Universidad de Zaragoza. Este trabajo se enmarca dentro del compromiso de Kampal con el uso ético de la tecnología y la generación de conocimiento socialmente relevante.
El caso de estudio: Lorena y el ciberacoso
El experimento partía de una situación realista de violencia digital: «Lorena», una adolescente, publica un vídeo en TikTok y es víctima de acoso. Se pidió opinión sobre el caso a dos grupos:
- Modelos de IA (ChatGPT, Deepseek y Salamandra), respondiendo desde las perspectivas de “hombre” y “mujer”.
- Adolescentes reales, que ofrecieron su visión sin ningún filtro tecnológico.
¿Qué mostró la comparación?
- La IA actúa como agente ético ideal: empatiza, condena el acoso y nunca responsabiliza a la víctima.
- Los humanos, en cambio, reflejan una realidad compleja: desde apoyo genuino hasta victim blaming, lenguaje sexista y normalización de la violencia.
- Los modelos de IA también replican estereotipos de género cuando se les pide simular un rol masculino o femenino: ellos actúan con firmeza y condena; ellas con empatía y análisis emocional.
Principales hallazgos
- Deepseek: el más empático y emocional, simula lenguaje adolescente con gran realismo.
- ChatGPT: responde con tono didáctico, estructurado y coherente.
- Salamandra: limitado, sin generación de ideas propias.
- Participantes humanos: enorme variabilidad, incluyendo respuestas crudas, sexistas o contradictorias.
Conclusiones
- No todas las IA son iguales: la capacidad de generar respuestas éticas y contextualizadas varía entre modelos.
- La IA no es neutral: perpetúa estereotipos según los datos con los que ha sido entrenada.
- Existe una brecha entre el discurso ideal (IA) y la realidad social (humanos), especialmente entre adolescentes, donde persisten prejuicios y actitudes problemáticas ante el consentimiento digital.
Desde Kampal seguiremos investigando cómo las tecnologías pueden contribuir a una sociedad más justa, y cómo herramientas como Kampal Inteligencia Colectiva pueden ayudarnos a detectar, comprender y abordar sesgos sociales.
📥 Si quieres más información sobre este proyecto o colaborar con nosotros en nuevas líneas de investigación, ¡contáctanos!