Es un hecho que la inteligencia artificial se está convirtiendo en una parte cada vez más intrínseca de nuestras vidas. Aunque la promesa de la IA es apasionante, su valor no ha pasado desapercibido entre los criminales de nuestra sociedad.
Uno de los mayores beneficios de la IA es su capacidad de actuar como un amplificador que ayuda a las personas a trabajar con una gran cantidad de datos complejos y realizar tareas altamente repetitivas que, normalmente, requerirían la intervención de un humano. La automatización de lo que normalmente sería un proceso manual permite a los delincuentes, especialmente a los ciberdelincuentes, mejorar la selección de objetivos, ampliar la escala de los ataques y aumentar la velocidad a la que pueden crear nuevo malware. Aunque hasta ahora se han visto pocos ejemplos de ataques que emplean la IA, los investigadores de seguridad han estado trabajando duro para explorar lo que es posible.
A continuación ofrecemos algunos ejemplos de la investigación sobre cómo los atacantes podrían utilizar la IA:
* Eludir los sistemas CAPTCHA. CAPTCHA se ha convertido en una herramienta esencial en Internet que permite determinar si la persona que visita nuestro sitio es un humano o si se trata de un bot. A los visitantes se les presenta una imagen, una casilla de verificación o una cadena de texto distorsionado y se les pide que realicen una acción que normalmente requeriría la intervención de un ser humano, como la identificación de imágenes similares entre sí. Mediante el uso de técnicas de IA, investigadores de la Universidad de Columbia lograron obtener Googles reCAPTCHA el 98% de las veces.
* Mejorar la precisión y el alcance del phishing. Un 76 % de las organizaciones fueron víctimas de ataques de phishing en 2017 y, en respuesta, muchas corporaciones han implementado rigurosos programas para entrenar a sus empleados en la identificación de intentos de phishing para prevenir estos ataques. Con la IA, los ciberdelincuentes disponen de una herramienta que se puede utilizar para analizar grandes volúmenes de datos de sus objetivos y crear mensajes que producirán una mayor tasa de éxito. Las investigaciones de seguridad en ZeroFox demostraron este enfoque para dirigirse a los usuarios de Twitter con SNAP_R (Social Network Automated Phishing with Reconnaissance). SNAP_R utiliza IA para identificar objetivos valiosos y desarrollar rápidamente un perfil de ese objetivo basado en lo que han tuiteado en el pasado. Empleando este enfoque, lograron objetivos para pinchar en enlaces maliciosos el 30% de las veces (comparado con la tasa de éxito de entre el 5-15% de otros enfoques automatizados).
* Desarrollar malware altamente evasivo. Los hackers han confiado durante mucho tiempo en scripts y kits de herramientas para desarrollar y distribuir malware, pero a medida que la ciberdefensa se ha vuelto más inteligente y sofisticada, nuestros adversarios han recurrido a técnicas de inteligencia artificial de bajo perfil para aumentar la evasión del malware. Los creadores de malware han comenzado a utilizar la IA para realizar comprobaciones con el fin de identificar las configuraciones de hardware y el entorno en el que se encuentran (por ejemplo, un entorno Sandbox frente a una máquina física), así como para determinar si un humano está operando la máquina en ese momento. DeepLocker, desarrollado por investigadores de IBM Research, demuestra los peligros de la inteligencia artificial utilizada como un arma en el malware. La IA de DeepLocker está entrenada para asegurar que su carga útil solo se ejecute cuando alcance un objetivo específico, basándose en tres capas de ocultación para evitar que las herramientas de seguridad identifiquen la amenaza.
En definitiva, a medida que la carrera armamentista de ciberseguridad calienta motores, es más conveniente decir que estamos acercándonos a una nueva etapa en la que la IA y el machine learning jugarán un papel cada vez más importante tanto en ataque como en defensa.
Stephen Helm
Director de marketing de producto de WatchGuard Technologies