Un informe de Omdia destaca que las empresas de telecomunicaciones deben adaptarse a la nueva legislación sobre inteligencia artificial impulsada principalmente por la Unión Europea. Esta normativa adopta un enfoque basado en el riesgo, aplicando reglas más estrictas a los usos de la IA considerados de mayor impacto o peligro potencial.
La Ley de IA de la UE regula tanto a desarrolladores como a usuarios, estableciendo un marco legal que busca garantizar la seguridad, la transparencia y la protección frente a los riesgos derivados del uso de la inteligencia artificial. En contraste, la legislación de Corea del Sur, que también avanza en este ámbito, se centra únicamente en los desarrolladores y proveedores de productos y servicios basados en IA.
Según Sarah McBride, analista principal de Omdia, “el sector de telecomunicaciones enfrentará un incremento en los costes y las labores de cumplimiento para adaptarse a los requisitos legales que impone la normativa europea sobre seguridad y responsabilidad”.
La regulación europea forma parte de un movimiento global que busca equilibrar los beneficios de la IA con los riesgos asociados, como el sesgo en los datos, la privacidad, la seguridad y la responsabilidad ante posibles errores.
Dado que la inteligencia artificial está presente en múltiples áreas del negocio de las telecomunicaciones, las compañías deberán cumplir con distintos requisitos legales según el contexto y el tipo de aplicación. Además, la evolución constante del marco regulatorio representa un desafío adicional para el sector.
“La normativa europea exige a los operadores gestionar aspectos clave como los usos de alto riesgo, la transparencia y la implementación de mecanismos de cumplimiento efectivos”, añade McBride. A ello se suman otras normativas vinculadas con la protección de datos, la seguridad de infraestructuras críticas, la protección al consumidor y la soberanía digital.
El informe recomienda que las empresas de telecomunicaciones adopten un enfoque proactivo, implementando sistemas de gestión de riesgos y promoviendo un uso ético y responsable de la inteligencia artificial. “La IA ofrece grandes oportunidades para innovar, pero es esencial evaluar los riesgos y garantizar la calidad, precisión y no discriminación en los datos”, concluye McBride.











