Qlik nació como una empresa de analítica en 1993. ¿Cómo describiría la evolución hacia una plataforma integral preparada para IA?
En 2024 establecimos, como objetivo estratégico, ser no sólo una herramienta de business intelligence (como llevamos haciendo desde hace más de tres décadas) sino ir a la parte de atrás. Partiendo de nuestra experiencia con clientes en analítica, donde la disponibilidad y la calidad del dato son muy importantes, esto aplica íntegramente también a la inteligencia artificial porque la IA, al final, son algoritmos, programas que utilizan datos.
En la última década hemos comprado más de 15 compañías, todas relacionadas con soluciones de inteligencia artificial o con integración de datos. Las más significativas han sido la compra de Attunity, organización con una solución de integración de datos en tiempo real, carga de streaming. Otra adquisición importante fue Talend en 2023, especializada en gobierno, calidad, linaje y catálogo de datos. En 2024 compramos también Upsolver, que permite hacer la carga de ficheros o tablas Apache Iceberg, en tiempo real, en streaming, con un potente optimizador.
Con todo ello cubrimos desde el origen de los datos, permitiendo integrarlos en tiempo real, garantizar que los mismos están gobernados, que son accesibles a través de un catálogo y que tienen la calidad necesaria. Esos datos van a alimentar nuestra herramienta o cualquier otra de business inteligence, o de inteligencia artificial. Cerramos toda la cadena desde la ingesta, transformación en gobierno, hasta la explotación de los datos.
Si el cliente tiene otra herramienta de BI, la primera parte también le sirve. Y si tiene una solución de inteligencia artificial, a través de nuestro catálogo puede acceder a esos datos y trabajar con ellos en la herramienta de IA, por lo que el objetivo está consolidado. Hay dos piezas principales: Qlik Talend Cloud, la versión de integración en la nube y Qlik Cloud, la herramienta analítica en la nube.
También mantenemos las versiones on-premise para quienes, de momento, no se sienten preparados para ir al cloud.
¿Qué mejoras han percibido los clientes tras la integración de estas plataformas?
Simplicidad y modularidad. Hay un incremento de la simplicidad, porque al abordar un proyecto de integración con Qlik Talend Cloud o un proyecto de analítica con Qlik Cloud los licenciamientos son modulares. Puedo necesitar una herramienta de integración en tiempo real y la integración tiene varias versiones: estandar, prémium y enterprise. En función de las necesidades que se quieran implementar, se puede adquirir una u otra dentro de Qlik Talend Cloud. Algo parecido pasa con Qlik Cloud.
Están posicionados como una de las compañías más importantes en torno al dato en el mercado español y durante 15 años ha ocupado un puesto de liderazgo en el cuadrante mágico de Gartner.
En la parte analítica estaríamos en torno al 20 % de participación de mercado. No me atrevo a decir si somos líderes, pero estoy seguro que si no estamos en primera posición, estaremos en segunda. Casi me atrevería a decir que somos la primera compañía en soluciones analíticas en este momento. Tenemos una base instalada de más de 1.500 clientes, grandes clientes, pero también más pequeños.
La parte de integración es más selectiva porque el cliente de analítica es más de negocio y el de integración más de tecnológica, por lo que es una venta mucho más técnica.
¿Cuál es su ventaja competitiva para mantener esta posición?
Destacaría tres. Aportar confianza a los clientes sería una de ellas. Las personas que confían en Qlik tienen la posibilidad de conectar o integrar datos prácticamente de cualquier fuente, independientemente de que estén en on-premise o en la nube. Permitimos, a través de una pieza que también está embebida dentro de nuestra solución: Trust Score, analizar los datos del cliente y detectar posibles problemas de calidad de los mismos. Esto estaría alineado con la parte de confianza, linaje, gobierno, catálogo de producto y la posibilidad de gestión, información estructurada y no estructurada.
Por otro lado, destacaría la eficiencia, que permite desarrollar entornos híbridos, aportando flexibilidad. Eficiencia que también puedes recibir a través de soluciones como el CDC (Captura de Datos de Cambio). El motor de QliK en la parte analítica es un motor de computación en memoria, con un rendimiento de la herramienta enorme. Con las nuevas aplicaciones podemos abordar soluciones de open lakehouse, otro tipo de valor añadido adicional dentro de la parte integración.
La tercera sería la sencillez, con herramientas de fácil utilización como soluciones basadas en lenguaje natural, con el fin de llevar a cabo consultas analíticas a Qlik sin escribirlas. Qlik Alerting: módulos de alerta. O Qlik Predict, una herramienta de inteligencia artificial y aprendizaje automático que permite a las empresas crear modelos predictivos sin código, son algunos ejemplos.

Tras casi dos años de su llegada a la compañía tiene el objetivo de duplicar su volumen de negocio en España en los próximos dos años. ¿Qué hoja de ruta se ha marcado para lograr este objetivo? ¿Cuál va a ser su estrategia de crecimiento?
Estaría basada en tres pilares: movimiento al cloud, cross-selling en la base instalada y adquisición de nuevos logos.
Tenemos una cartera de clientes muy amplia. En principio diría que todos aquellos clientes que quieran abordar el movimiento al cloud, sería una de las formas de incremento de negocio para nosotros. Otra parte sería el cross-selling. La presencia principal que Qlik tiene en España es la parte analítica. No tanto la parte de integración, porque la presencia de las compañías que hemos ido adquiriendo en este sentido no ha sido demasiado grande, por lo que el cross-selling sería muy importante a la hora de crecer..
Y nuevos logos porque, aunque tengamos una presencia importante de clientes en España, nos queda mucho recorrido.
La plataforma de Qlik transforma los datos en conocimiento, pero ¿cómo ayuda a captar el valor del dato?
La herramienta analítica permite jugar con reporting, predicción de datos. Cuando el dato está disponible, gobernado y con calidad, podemos jugar con ello y cualquier persona dentro de la empresa podrá explotarlo. ¿Cómo? Dependerá del tipo de cliente y de industria. Las áreas más habituales en las que trabajamos son las de marketing, financiero y producción. Proporcionamos una herramienta muy potente pero cada cliente la moldea o adapta a sus necesidades.
¿Cómo dialoga la plataforma con arquitecturas de nube híbrida y multi-cloud?
Perfectamente. Nos da igual que los datos estén en on-prémise o en la nube. O que la nube sea de cualquiera de los de los hiperescalares. O incluso que haya fuentes que procedan de Snowflake, Teradata, etc.
Aunque no tengan predilección por ningún hiperescalar, tienen acuerdos con AWS.
Si la instalación se va a llevar a cabo en un modelo de bring your own license, podría instalarse en Azure, Google Cloud o en AWS, no hay problema. La especificidad en este momento viene si el cliente quiere contratar un formato SaaS. Ahí lo haríamos en nuestra plataforma. Todos los compromisos que adquiere el cliente final, los adquiere con Qlik.
En la era de la Inteligencia artificial, ¿cómo ayudan a los clientes a acelerar la puesta en marcha de proyectos de IA sin grandes costes ni grandes equipos?
Nuestra solución, aunque cuenta con funcionalidades basadas en inteligencia artificial, no es una solución de IA. La principal ayuda que podríamos proporcionar nos viene de la parte integración, poner a disposición de esa herramienta de IA los datos, estén donde estén, garantizar su calidad, su gobierno, su trazabilidad y su accesibilidad. A partir de ahí, atacar a la solución de IA y que la materia prima de la solución de IA se alimente, sea la mejor posible.
La gobernanza del dato con la IA y la IA generativa está siendo un caballo de batalla complicado para los C-level, que señalan que la IA se ha convertido prácticamente en un caballo desbocado. ¿Por dónde deben empezar para coger las riendas de la gobernanza?
Los pilares básicos del gobierno del dato pasan por conocer qué datos tengo y de dónde vienen.
La pieza más importante sobre la cual pivotan muchas de estas funcionalidades sería el catálogo de datos. Incorporar datos de calidad. Por otra parte, es importante la trazabilidad y todo lo relacionado con la seguridad y permisos.
¿Por dónde pasan el presente y el futuro de los agentes de la IA? ¿Qué ofrece Qlik en este sentido?
Agente de IA es un concepto de autonomía de ejecución y toma de decisiones, es muy amplio. Nosotros estamos en unos primeros estadios, incorporando algunas funcionalidades dentro de la parte de alertas, con Qlik Predict.
No creo que haya muchas organizaciones que estén en el último estadio porque sería la autonomía total de ejecución y tomar decisiones por un algoritmo. Son cinco estadios. Muchos estamos en el segundo o tercero.
En Qlik Connect 2025 la compañía presentó Qlik Open Lakehouse, la ampliación de las capacidades de Qlik Cloud Analytics y la inclusión de la IA agéntica en Qlik Answers. ¿Cómo definiría la experiencia de IA agéntica en Qlik Answers frente a asistentes conversacionales genéricos como ChatGPT o Copilot?
Qlik Answer viene fruto de otra adquisición, en 2022. Permite hacer consultas sobre tu documentación, no de Internet, sino tuya y contesta. En Qlik Connect se presentó la posibilidad no sólo de hacer el análisis de esos documentos que tienes en tu repositorio, sino cruzarlo con información de otros datos de la compañía, trabajados por Qlik Cloud.
Con respecto a Qlik Open Lakehouse ¿en qué se diferencia de modelos de data lake tradicionales?
Los modelos de datalake tradicionales, históricamente, han sido modelos basados en Hadoop. La ventaja es que ahora te permite crear un repositorio de datos desacoplado del motor de procesamiento que tengas. En este momento hay otro tipo de soluciones como Databricks o Snowflake, que pueden llevar su propio almacenamiento o tener un almacenamiento desacoplado, basado en ficheros Iceberg o Delta. Hay algunos que ya son compatibles con los dos. ¿Qué quiere decir? Que ese repositorio, que llamamos Open Lakehouse, puede ser atacado por el motor de proceso de Databricks o por el motor de proceso de Snowflake indistintamente. Creas algo que es abierto, es agnóstico de la tecnología de gestión de esos datos que pongas por encima y no sólo es capaz de cargarlo en tiempo real en formato carga-streaming y cargarlo de esa manera en formato iceberg, sino que tiene un optimizador muy potente que facilita el mantenimiento del Open Lakehouse de manera automática. Al final, lo que simula es una especie de tablas mediante ficheros.
Es open porque es agnóstico a la tecnología que le pongas por encima. Y fruto de la adquisición de Upsolver. Destacaría la integración en Iceberg, pero más que la integración, la optimización de las estructuras de datos Iceberg que se generan con una herramienta nuestra.











