Kampal

Quiénes somos new

Kampal nace como Spin-off de la Universidad de Zaragoza, concretamente del Instituto BIFI donde la unión de expertos en física junto con ingenieros en informática ha dado como resultado una empresa innovadora que aplica técnicas de sistemas complejos para resolver problemas que hasta ahora nunca se habían utilizado.

La pasión de su equipo de trabajo por las nuevas tecnologías hace que la empresa también esté al orden del día en desarrollo de aplicaciones web y móviles, utilizando siempre las herramientas más punteras disponibles.

Somos un equipo mixto de ingeniería, física y matemática con décadas de experiencia en la ejecución de soluciones propias y adaptadas a la necesidad del cliente, cubriendo tanto la programación como la organización del software y hardware.

Hemos heredado de nuestras actividades científicas la experiencia en el análisis de redes complejas y en métricas propias de las estructuras de red, que empleamos en alguno de nuestros productos. En la búsqueda de soluciones podemos complementar la estadística clásica con el modelado basado en interpretaciones físicas.

Esta flexibilidad se extiende al nivel de las estructuras de datos, donde estamos acostumbrados a trabajar y organizar fuentes de datos muy diversas tanto en contenido como en estructura.

Nuestro personal abarca lenguajes y entornos de programación en diferentes niveles de abstracción -C, Scala o Python- y está habituado a trabajar en plataformas diversas con un amplio rango de arquitecturas: máquinas de propósito específico, nubes de ordenadores – sea en openstack o de AWS-, clusters de cálculo intensivo, etc.

En las soluciones que hemos realizado recientemente hemos pivotado sobre recursos open source con las consiguientes ventajas de compatibilidad, tanto con despliegues comerciales (por ejemplo, hosting en Amazon o en nubes corporativas), como con la experiencia de nuestros partners. Así, los desarrollos de páginas web han venido basados en frameworks como Django sobre bases de datos, Postgresql en el lado clásico o ElasticSearch en la parte NoSQL.

Los trabajos de analítica de datos utilizan C o lenguajes compilados solo cuando se hace necesario en algún proceso de alto consumo o una visualización especialmente complicada, pero basamos gran parte en kits científicos de Python o otros entornos de alto nivel. Cuando es necesario el procesado de grandes cantidades de datos estamos optando por arquitecturas como Spark, y recientemente también los modelos de Machine Learning los hemos ido adaptando a sistemas distribuidos escalables, como Tensorflow, normalmente ejecutándose en nuestra propia nube pero con portabilidad general.

De cara al cliente, somos conscientes de la necesidad, no solo de tener los datos y analizarlos sino de tener además una presentación legible y que se adapte a su objetivo. Por ello tendemos a incorporar en nuestros productos herramientas de visualización (geográfica, redes, estadística) y navegación adaptadas y personalizadas para cada caso, y a responder al feedback refinándolas en sucesivas interacciones del producto.

¿Quieres que te ayudemos?

LinkedIn
Instagram