En el evento sobre IA & ciberseguridad llevado a cabo por ISMS Forum en Madrid, se resaltaron algunas ideas que hay que tener en cuenta en el día a día de las organizaciones, dejando claro los puntos que hay que reforzar ante unos cibercriminales que van a utilizar la IA para sus ciberdelitos.
Pablo Estevan, systems engineer manager del Sector Público de Iberia de Palo Alto Networks, puso el acento en la utilización de la IA por parte de los ciberdelincuentes a través de chatbots con contenidos que encajan a la perfección con las necesidades de aquellos a quienes lo envían y con la automatización como premisa a la hora de llevar a cabo múltiples ataques de manera masiva y rápida. Una automatización del malware con la que generan códigos y sus variantes. Y con ataques basados en una paciencia infinita que hará que siempre sigan intentando ir a por sus presas.
Unas amenazas llevadas a cabo con inteligencia artificial que, tal y como señala “son etéreas. No hay mapas que indiquen qué van llevando a cabo en cada ataque”, al tiempo que reconoce que con la IA los atacantes nos llevan ventaja, intentando sacar partido ante las tendencias surgidas. A pesar de ello, Pablo Estevan avanza que la seguridad es posible ya que los fabricantes de seguridad llevan años utilizando la inteligencia artificial, creando conceptos como el XDR o introduciendo la inteligencia en los firewalls.
Desde Palo Alto Networks consideran que se necesitan dos tipos de IA: la de precisión y la generativa. La primera porque para conocer algo determinado necesitamos precisión y una gran calidad de datos, no podemos equivocarnos, resalta el directivo. “La IA nos permite recoger datos de calidad, información de cualquier formato, analizar…”
En la mesa redonda discovery, clasificación y orquestación se lanzaron algunas premisas como el empuje hacia la productividad que aporta la inteligencia artificial. También hubo demandas hacia los fabricantes como una mayor capacidad de respuesta inmediata, la necesidad de que el fabricante desarrolle de manera segura o asegurar el acceso a información privilegiada.
Los retos de esta tecnología también fueron expuestos, entre ellos la mayor dificultad para detectar la presencia de los cibercriminales, la falta de conocimiento de muchas herramientas ante la novedad de las mismas o su adaptación a la realidad actual de las organizaciones.
Raquel Hernández, directora de Soluciones de Seguridad de Microsoft, alertó sobre la escalada de ataques que está habiendo en los últimos tiempos, algo que nos lleva a un impacto devastador, confirmó, con empresas que tienen hasta 80 herramientas de seguridad, a lo que hay que unir la falta de talento. Además de la preocupación que tienen algunas compañías de que con la IA se produzca una fuga de información. Por ello recomienda proteger la seguridad desde cualquier ángulo.
Para lograrlo, desde Microsoft han desarrollado una plataforma extremo a extremo y han lanzado soluciones como Microsoft Defender, Copilot for Security, etc. Soluciones que detectan lo que otros dejan pasar por alto, reivindica. Esta última, además, permite adoptar la IA en la escala y velocidad demandada, nutriéndose de toda la inteligencia contra amenazas que tiene. Analiza el impacto que puede llegar a alcanzar en una organización y nos ayuda a priorizar, prosigue.
Salvador Estevan, director general de Digitalización e IA del ministerio para la Transformación Digital y Fundación Pública, también reconoció que la IA genera vulnerabilidades y riesgos asociados, facilitando la ingeniería social. Aunque, en su opinión, España está en un punto de partida inmejorable para afrontar los retos que vienen. Opina que la IA tiene que ayudar a hacer más eficientes los servicios. Ser ética, responsable y cibersegura, porque la ciberseguridad tiene que ser un sector estratégico.
En cuanto en la mesa de debate enfocada a las deepfakes, quedó patente su evolución, enfocadas en un primer momento hacia los textos y ahora hacia las imágenes falsas, utilizándose incluso como arma contra las democracias y con una superficie de ataque mucho mayor. Por ello, por parte de los profesionales en este debate se recomendó buscar en la red interna de las organizaciones aquello que no debería estar en las mismas. Que la IA lo detecte. Y, como la información falsa está atacando a las personas, es necesario poner el foco sobre los individuos, así como en la gestión de la identidad, identificando a la persona que es quien dice ser. También hay que tener el canal por el que llegan porque es diferente el corporativo al personal.