viernes, febrero 13, 2026
DirectorTIC
  • INICIO
  • NOTICIAS
  • ENTREVISTAS
  • REPORTAJES
  • RETOS CIO
    • Talleres del CIO
    • Entorno TIC
  • ANÁLISIS TIC
    • DEBATES
      • DEBATE: Puesto de trabajo inteligente 2026
      • DEBATE: Centro de datos 2025
      • DEBATE: Data Driven/gestión dato 2025
      • COLOQUIO: Estrategias para afrontar los nuevos desafíos tecnológicos del sector sanitario 2025
    • ESPECIALES
      • La inteligencia artificial redefine los retos del CIO en 2026
      • ¿Quiere saber cómo conseguir una optimización de costes real?
      • Especial IA 2024: un futuro brillante pleno de desafíos
      • Guía de ciberseguridad 2023
      • Guía de ciberseguridad 2022
      • Guía de ciberseguridad 2021
      • Guía de la transformación digital 2021
  • EVENTOS
    • FORO TAI
      • FORO TAI Galicia: el reto de la “calidade” tecnológica
      • FORO TAI innovacion-disruptiva
    • OBSERVATORIOS
      • Observatorio infraestructura para la IA 2025
  • ENCUENTROS
    • ENCUENTRO EJECUTIVO: Sin gobernanza ni seguridad, la inteligencia artificial no genera valor 2026
    • ENCUENTRO EJECUTIVO: DEX se consolida como pieza clave para la productividad y seguridad de empresas y organismos públicos 2026
    • ENCUENTRO EJECUTIVO: La IA aplicada a los procesos de negocio 2025
    • ENCUENTRO EJECUTIVO: Claves para la transformación digital desde la observabilidad 2025
    • ENCUENTRO EJECUTIVO: Formación y gobernanza del dato, antídotos frente al “caballo desbocado” de la IA 2025
    • ENCUENTRO EJECUTIVO: IA generativa, redefiniendo el puesto de trabajo 2025
    • ENCUENTRO EJECUTIVO: Gobernanza del dato 2025
    • ENCUENTRO EJECUTIVO: La observabilidad es necesaria porque “no puedes mejorar nada que no puedas ver” 2025
    • ENCUENTRO EJECUTIVO: El modelo híbrido reina en los entornos TIC 2025
  • SUSCRIPCIONES
No Result
View All Result
DirectorTIC
  • INICIO
  • NOTICIAS
  • ENTREVISTAS
  • REPORTAJES
  • RETOS CIO
    • Talleres del CIO
    • Entorno TIC
  • ANÁLISIS TIC
    • DEBATES
      • DEBATE: Puesto de trabajo inteligente 2026
      • DEBATE: Centro de datos 2025
      • DEBATE: Data Driven/gestión dato 2025
      • COLOQUIO: Estrategias para afrontar los nuevos desafíos tecnológicos del sector sanitario 2025
    • ESPECIALES
      • La inteligencia artificial redefine los retos del CIO en 2026
      • ¿Quiere saber cómo conseguir una optimización de costes real?
      • Especial IA 2024: un futuro brillante pleno de desafíos
      • Guía de ciberseguridad 2023
      • Guía de ciberseguridad 2022
      • Guía de ciberseguridad 2021
      • Guía de la transformación digital 2021
  • EVENTOS
    • FORO TAI
      • FORO TAI Galicia: el reto de la “calidade” tecnológica
      • FORO TAI innovacion-disruptiva
    • OBSERVATORIOS
      • Observatorio infraestructura para la IA 2025
  • ENCUENTROS
    • ENCUENTRO EJECUTIVO: Sin gobernanza ni seguridad, la inteligencia artificial no genera valor 2026
    • ENCUENTRO EJECUTIVO: DEX se consolida como pieza clave para la productividad y seguridad de empresas y organismos públicos 2026
    • ENCUENTRO EJECUTIVO: La IA aplicada a los procesos de negocio 2025
    • ENCUENTRO EJECUTIVO: Claves para la transformación digital desde la observabilidad 2025
    • ENCUENTRO EJECUTIVO: Formación y gobernanza del dato, antídotos frente al “caballo desbocado” de la IA 2025
    • ENCUENTRO EJECUTIVO: IA generativa, redefiniendo el puesto de trabajo 2025
    • ENCUENTRO EJECUTIVO: Gobernanza del dato 2025
    • ENCUENTRO EJECUTIVO: La observabilidad es necesaria porque “no puedes mejorar nada que no puedas ver” 2025
    • ENCUENTRO EJECUTIVO: El modelo híbrido reina en los entornos TIC 2025
  • SUSCRIPCIONES
No Result
View All Result
DirectorTIC
No Result
View All Result
Inicio Destacado

10 principales riesgos de seguridad de la IA que toda empresa debe conocer

Cada semana nos llegan noticias de nuevos avances en IA, por lo que cada vez es más importante que las empresas conozcan los riesgos antes de adoptar herramientas de IA. Este análisis de las 10 principales áreas de preocupación identificadas por el Open Worldwide Application Security Project (OWASP) señala los riesgos que las empresas deben tener en cuenta durante la segunda mitad del año.

Inma ElizaldePor: Inma Elizalde
14 agosto, 2024
riesgos de seguridad de la IA-directortic-taieditorial
Compartir en TwitterCompartir en Linkedin

Durante más de 20 años, las listas de los 10 principales riesgos de Open Worldwide Application Security Project (OWASP) han sido la referencia en la batalla por hacer que el software sea más seguro. En 2023, OWASP presentó una nueva incorporación: un resumen de los riesgos específicos de la IA. En primavera/verano de ese año se publicaron dos versiones preliminares de la lista de riesgos de la IA, y en octubre se lanzó la versión 1 formal.

Desde entonces, los LLM se han consolidado cada vez más como herramientas de productividad empresarial. La mayoría de las empresas están utilizando o explorando el uso de la IA, y si bien algunas responsabilidades son bien conocidas (como la necesidad de verificar siempre el trabajo de un LLM), otras siguen sin ser detectadas.

Realizamos algunos análisis y descubrimos que las vulnerabilidades identificadas por OWASP se dividen en tres categorías generales:

  1. Riesgos de acceso asociados con privilegios explotados y acciones no autorizadas.
  2. Riesgos relacionados con los datos, como su manipulación o la pérdida de servicios.
  3. Riesgos para la reputación y la empresa derivados de resultados o acciones incorrectos de la IA.

A continuación, examinamos más de cerca los riesgos específicos de cada caso y ofrecemos algunas sugerencias sobre cómo gestionarlos.

  1. Riesgos de acceso con IA

De las 10 vulnerabilidades enumeradas por OWASP, tres son específicas del acceso y uso indebido de privilegios: diseño inseguro de plugins, manejo inseguro de salidas y exceso de autonomía.

Según OWASP, un LLM que utilice modelos de lenguaje inseguros podría perder el control de acceso, lo que lo dejaría expuesto a solicitudes maliciosas o a la ejecución de código remoto no autorizado. Por otro lado, los plugins o aplicaciones que manejan grandes salidas del modelo de lenguaje de forma insegura (sin evaluarlas) podrían exponer a los sistemas backend a ser susceptibles de ataques XSS, CSRF y SSRF que ejecuten acciones no deseadas, así como a escaladas de privilegios no autorizadas y ejecución remota de código.

Y dado que los chatbots de IA son “actores” capaces de tomar e implementar decisiones, importa cuánta libertad de acción (es decir, agencia) se les da. Como explica OWASP, “La Agencia o Autonomía Excesiva es la vulnerabilidad que permite que se realicen acciones dañinas en respuesta a salidas inesperadas/ambiguas de un LLM (independientemente de lo que esté causando el mal funcionamiento del LLM; ya sea alucinación/confabulación, inyección directa/indirecta de avisos, plugin malicioso, avisos o indicaciones benignos mal diseñadas, o simplemente un modelo de bajo rendimiento)”.

Por ejemplo, un asistente de lectura de correo personal con capacidades de envío de mensajes podría ser explotado por un email malicioso para propagar spam desde la cuenta de un usuario.

En todos estos casos, el gran modelo de lenguaje se convierte en un conducto para que los malos actores se infiltren en los sistemas.

  1. Riesgos de la IA y los datos

Los datos de entrenamiento envenenados, las vulnerabilidades de la cadena de suministro, la revelación de información sensible, las vulnerabilidades de inyección puntual y las denegaciones de servicio son riesgos específicos de la IA relacionados con los datos.

Los datos pueden ser envenenados deliberadamente por agentes malintencionados o inadvertidamente cuando un sistema de IA aprende de fuentes poco fiables o no verificadas. Ambos tipos de envenenamiento pueden producirse dentro de una aplicación activa de chatbot de IA o surgir de la cadena de suministro de LLM, donde la dependencia de modelos entrenados previamente, datos obtenidos por crowdsourcing o colaboración colectiva y extensiones de plugins inseguros pueden producir resultados de datos sesgados, brechas de seguridad o fallos del sistema.

Los datos envenenados y la cadena de suministro son preocupaciones de entrada. Permitir la entrada de información privada, confidencial, de identificación personal y similar en los datos de entrenamiento de los modelos también puede dar lugar a revelaciones no deseadas de información sensible.

Con inyecciones puntuales, las entradas malintencionadas pueden hacer que un chatbot de IA con un gran modelo de lenguaje exponga datos que deberían mantenerse privados o realice otras acciones que lleven a comprometer los datos.

Los ataques de denegación de servicio de IA son similares a los ataques DOS clásicos. Pueden tener como objetivo saturar un modelo de lenguaje de gran tamaño y privar a los usuarios del acceso a datos y aplicaciones, o bien, dado que muchos chatbots de IA dependen de una infraestructura de TI de pago por uso, obligar al sistema a consumir recursos excesivos y acumular costes masivos.

  1. Riesgos reputacionales y empresariales asociados a la IA

Las dos vulnerabilidades finales de OWASP están relacionadas con el robo de modelos y la dependencia excesiva de la IA. La primera se aplica cuando una organización tiene su propio modelo LLM. Si usuarios no autorizados acceden a ese modelo, lo copian o lo filtran, podrían aprovecharse de él para perjudicar el rendimiento de una empresa, ponerla en desventaja competitiva y, potencialmente, provocar una fuga de información sensible.

La dependencia excesiva de la IA ya está teniendo consecuencias en todo el mundo. No faltan historias sobre grandes modelos de lenguaje que generan resultados falsos o inapropiados, desde menciones y precedentes legales inventados hasta lenguaje racista y sexista.

OWASP señala que depender de chatbots de IA sin la supervisión adecuada puede hacer que las organizaciones sean vulnerables a la publicación de información errónea o contenido ofensivo que derive en daños de reputación o incluso en acciones legales.

Dada toda esta diversidad de riesgos, la pregunta que conviene hacerse es: “¿Qué podemos hacer al respecto?”. Afortunadamente, hay algunas medidas de protección que las organizaciones pueden tomar.

riesgos de seguridad de la IA 2-directortic-taieditorial

Qué pueden hacer las empresas frente a las vulnerabilidades de la IA

Desde el punto de vista de Trend Micro, la defensa frente a los riesgos de acceso a la IA requiere una postura de seguridad zero-trust con una separación disciplinada de los sistemas (sandboxing). Aunque la IA generativa puede desafiar a las defensas de zero-trust de formas que otros sistemas informáticos no lo hacen -porque puede imitar a entidades de confianza-, una postura de confianza cero sigue añadiendo controles y equilibrios que facilitan la identificación y contención de la actividad no deseada. OWASP también aconseja que los grandes modelos de lenguaje “no se autovigilen” y pide que se incorporen controles en las interfaces de programación de aplicaciones (API).

El aislamiento también es clave para proteger la privacidad y la integridad de los datos: mantener la información confidencial totalmente separada de los datos compartibles y hacerla inaccesible a los chatbots de IA y otros sistemas de cara al público.

Una buena separación de los datos impide que los modelos de lenguaje de gran tamaño incluyan información privada o de identificación personal en los resultados públicos, y que se les incite públicamente a interactuar con aplicaciones seguras, como los sistemas de pago, de forma inadecuada.

Desde el punto de vista de la reputación, las soluciones más sencillas consisten en no confiar únicamente en los contenidos o códigos generados por IA, y no publicar ni utilizar nunca los resultados de la IA sin verificar antes su veracidad, precisión y fiabilidad.

Muchas de estas medidas defensivas pueden -y deben- incluirse en las políticas corporativas. Una vez establecida una base de políticas adecuada, pueden utilizarse tecnologías de seguridad como la detección y respuesta de endpoints (EDR), la detección y respuesta extendida (XDR) y la gestión de eventos e información de seguridad (SIEM) para hacer cumplir las políticas y supervisar las actividades potencialmente dañinas.

Los chatbots de IA con grandes modelos de lenguaje están aquí para quedarse

El catálogo de riesgos de la IA de OWASP demuestra que las preocupaciones sobre la prisa por adoptar la IA están bien justificadas. Al mismo tiempo, está claro que la IA no va a desaparecer, por lo que comprender los riesgos y tomar medidas responsables para mitigarlos es de vital importancia.

Establecer las políticas adecuadas para gestionar el uso de la IA y aplicarlas con la ayuda de soluciones de ciberseguridad es un buen primer paso. También lo es mantenerse informado. Tal y como lo vemos en Trend Micro, la lista Top 10 de riesgos de la IA de OWASP está destinada a convertirse en una lectura obligada anual como lo ha sido su lista original de seguridad de aplicaciones desde 2003.

Trend MIcro

Etiquetas: riesgos de seguridad de la IATrend Micro

DESTACADOS

DESTACADO

Palo Alto Networks, la seguridad que nos guía
Noticias

Palo Alto Networks, la seguridad que nos guía

29 enero, 2026

¿Quiere descubrir cómo sortear los peligros y mantener su organización a salvo? Con Palo Alto Networks descubrirá, a través de...

Leer másDetails

DESTACADOS

No Content Available
Ismael Pastor-Lessthan3-Directortic
Entorno TIC

La nube de AWS permite ahorros de entre el 30 y el 70 %

1 diciembre, 2025

La nube se ha convertido en un elemento clave para potenciar a compañías de todos los tamaños y Amazon Web...

Leer másDetails
No Content Available
Tres predicciones sobre la nube soberana en 2026
Noticias

Tres predicciones sobre la nube soberana en 2026

3 febrero, 2026

Para muchos “nube soberana” fue la palabra de moda en el ámbito de TI en 2025. ¿Será 2026 el año...

Leer másDetails
El CIO jugará un papel importante en la empresa agéntica, de la mano de Salesforce
Noticias

El CIO jugará un papel importante en la empresa agéntica, de la mano de Salesforce

29 enero, 2026

Salesforce decidió hace un año sumergirse en el concepto de empresa agéntica con su plataforma Agentforce, una plataforma de agentes...

Leer másDetails
Entorno TIC

Acronis o la ciberresiliencia a medida para las organizaciones

29 enero, 2026

El último informe publicado por Acronis revela que España está liderando las tasas de detección de malware, que el ransomware...

Leer másDetails
¿Cómo conseguir una inmejorable experiencia de usuario en el sector del transporte y logística?
Talleres del CIO

¿Cómo conseguir una inmejorable experiencia de usuario en el sector del transporte y logística?

4 febrero, 2026

El sector del transporte y la logística se enfrenta a retos como el aumento de costes, la presión regulatoria, la...

Leer másDetails
Diagonal Informática - Director TIC - HP - Puesto de trabajo - Tai Editorial España
Reportajes

“Nuestra estrategia pasa por crecer junto a HP como socio tecnológico”

12 febrero, 2026

Diagonal Informática mantiene una sólida alianza con HP para ofrecer soluciones innovadoras para la modernización del puesto de trabajo en...

Leer másDetails
Samsung -Econocom - Director TIC -Reportaje - Tai Editorial España
Reportajes

Samsung y Econocom: tecnología, seguridad y sostenibilidad para el futuro del trabajo

28 enero, 2026

En un entorno empresarial marcado por la acelerada transformación digital y la consolidación del trabajo híbrido, las organizaciones buscan soluciones...

Leer másDetails
España, eje de la innovación de Fsas Technologies
HUB

España, eje de la innovación de Fsas Technologies

27 enero, 2026

Madrid fue la última parada del Fsas Technologies Summit Tour, un encuentro que reafirmó la apuesta de la compañía por...

Leer másDetails
Siguiente noticia
Tendencias que harán crecer a las telco-directortic-taieditorial

Tendencias que harán crecer a las telco

SOBRE NOSOTROS

DirectorTic es una publicación de T.a.i. Editorial con información de valor para la toma de decisiones del C-Level de mediana y gran empresa

Contáctanos: correo@taieditorial.es

SÍGUENOS EN:

T.a.i. Editorial S.A. ®, marca registrada 2023 | Aviso Legal | Política de Privacidad | Política de Cookies | Anúnciese aquí

No Result
View All Result
  • INICIO
  • NOTICIAS
  • ENTREVISTAS
  • REPORTAJES
  • RETOS CIO
    • Talleres del CIO
    • Entorno TIC
  • ANÁLISIS TIC
    • DEBATES
      • DEBATE: Puesto de trabajo inteligente 2026
      • DEBATE: Centro de datos 2025
      • DEBATE: Data Driven/gestión dato 2025
      • COLOQUIO: Estrategias para afrontar los nuevos desafíos tecnológicos del sector sanitario 2025
    • ESPECIALES
      • La inteligencia artificial redefine los retos del CIO en 2026
      • ¿Quiere saber cómo conseguir una optimización de costes real?
      • Especial IA 2024: un futuro brillante pleno de desafíos
      • Guía de ciberseguridad 2023
      • Guía de ciberseguridad 2022
      • Guía de ciberseguridad 2021
      • Guía de la transformación digital 2021
  • EVENTOS
    • FORO TAI
      • FORO TAI Galicia: el reto de la “calidade” tecnológica
      • FORO TAI innovacion-disruptiva
    • OBSERVATORIOS
      • Observatorio infraestructura para la IA 2025
  • ENCUENTROS
    • ENCUENTRO EJECUTIVO: Sin gobernanza ni seguridad, la inteligencia artificial no genera valor 2026
    • ENCUENTRO EJECUTIVO: DEX se consolida como pieza clave para la productividad y seguridad de empresas y organismos públicos 2026
    • ENCUENTRO EJECUTIVO: La IA aplicada a los procesos de negocio 2025
    • ENCUENTRO EJECUTIVO: Claves para la transformación digital desde la observabilidad 2025
    • ENCUENTRO EJECUTIVO: Formación y gobernanza del dato, antídotos frente al “caballo desbocado” de la IA 2025
    • ENCUENTRO EJECUTIVO: IA generativa, redefiniendo el puesto de trabajo 2025
    • ENCUENTRO EJECUTIVO: Gobernanza del dato 2025
    • ENCUENTRO EJECUTIVO: La observabilidad es necesaria porque “no puedes mejorar nada que no puedas ver” 2025
    • ENCUENTRO EJECUTIVO: El modelo híbrido reina en los entornos TIC 2025
  • SUSCRIPCIONES

T.a.i. Editorial S.A. ®, marca registrada 2023 | Aviso Legal | Política de Privacidad | Política de Cookies | Anúnciese aquí

Este sitio web almacena cookies técnicas esenciales para el buen funcionamiento de la página. Estas cookies sirven para mejorar nuestro sitio web y poder ofrecer su funcionalidad completa. No utilizamos cookies de seguimiento para publicidad, ni para redes sociales, ya que cuando comparte información con una red social, será al entrar en ésta cuando le pidan el consentimiento a esas cookies. Para conocer más acerca de las cookies que utilizamos, pulse en Política de cookies. Puede visitar nuestra política de privacidad para saber más sobre el tratamiento de sus datos Política de privacidad. Pulse en aceptar, para minimizar