Más allá del algoritmo: por qué usamos la IA para proteger la convivencia escolar
En los últimos meses, el debate sobre la salud mental en las aulas ha saltado de los centros educativos a las portadas de todos los periódicos. Como expertos en análisis de datos, observamos con preocupación cómo el bullying sigue encontrando grietas por las que colarse. Sin embargo, estamos convencidos de que la solución no es darle la espalda a la tecnología, sino ponerla al servicio de las personas.
Desde Kampal, hemos desarrollado una metodología que permite a los colegios «ver» lo que hasta ahora era invisible. A través de nuestra herramienta Kampal Schools, aplicamos las matemáticas y la Inteligencia Artificial para analizar las redes de relaciones en clase. No buscamos señalar, sino detectar de forma temprana el aislamiento y la exclusión antes de que el conflicto escale.
Cuando recibimos el Premio Tercer Milenio a la Innovación Tecnológica, el jurado valoró nuestro rigor científico, pero para nosotros el verdadero hito es humanizar el dato. Un algoritmo puede identificar un patrón de riesgo, pero es el equipo docente quien, con esa información en la mano, puede cambiar la vida de un alumno.
Creemos en una IA que no solo sea eficiente, sino que sea honesta y responsable. Porque al final del día, la tecnología solo tiene sentido si sirve para que nuestros entornos —y especialmente los de nuestros hijos— sean lugares más seguros y acogedores.