La inteligencia artificial está transformando rápidamente todos los aspectos de nuestra vida al ofrecer avances tecnológicos sin precedentes, que afectan a cosas tan cotidianas, y tan importantes, como la asistencia sanitaria, el transporte o la domótica. Automatizar tareas, reducir errores o facilitar nuestra vida (por ejemplo, a la hora de encontrar una calle) son sólo algunos ejemplos de lo que supone la llegada de la IA para el día a día de las personas.
Los beneficios para las empresas también son claros. Las organizaciones podrán mejorar sus predicciones basadas en datos, optimizar productos y servicios, apostar por la innovación, incrementar la productividad y la eficiencia de sus empleados, o reducir costes.
Riesgos que generan dudas
A pesar de que los beneficios son múltiples, la adopción de la IA plantea una serie de retos que están generando grandes dudas entre los ciudadanos, los cuales no acaban de ver dónde están los beneficios de esta tecnología.
Así lo asegura un estudio de KPMG, que destaca que el 61 % de los encuestados desconfía de los sistemas de IA, mientras que un 67 % afirma que su aceptación de la inteligencia artificial es baja o moderada. Sólo la mitad cree que los beneficios de la IA superan a los riesgos.
Estos miedos no están “infundados”. La IA presenta algunos peligros significativos que van desde la desaparición de puestos de trabajo, hasta problemas de seguridad y privacidad, pasando por la desinformación y el aumento de las noticias falsas, o el incremento de las ciberestafas, los ciberataques, y los ataques a infraestructuras críticas, entre muchos otros. Ya se han producido suplantaciones de identidades a través de llamadas telefónicas, o acusaciones falsas de delitos debido a la tecnología de reconocimiento facial. El denominado deepfake, un fenómeno que provoca diferentes tipos de fraudes y manipulaciones contra individuos o entidades, crece a un ritmo anual del 900 %, según datos del Foro Económico Mundial.
¿Qué están haciendo los gobiernos?
Ante esta realidad, y a pesar de la desconfianza que generan sus acciones entre los propios ciudadanos (según el estudio de KPMG, la opinión pública confía más en las universidades y las organizaciones de defensa para desarrollar, utilizar y gobernar la IA que en las organizaciones gubernamentales o comerciales), gobiernos de todo el mundo están implantando diferentes estrategias para regular el uso de la IA en sus territorios. Algo nada sencillo, ya que se enfrentan a problemas jurídicos, de seguridad nacional y de derechos civiles.
La Unión Europea, Estados Unidos y China son tres ejemplos de cómo adoptar enfoques diferentes a la hora de regular el uso de la inteligencia artificial.
La propuesta de la UE
Si comenzamos por la UE, la Unión se ha convertido en el primer territorio con contar una Ley de Inteligencia Artificial. Aprobada el pasado mes de marzo, su planteamiento está basado en impulsar la excelencia y la innovación tecnológica, mientras se asegura la protección de los ciudadanos. La normativa que debe cumplir la IA se basa en dos aspectos principales: el riesgo potencial asociado al uso de la tecnología y el impacto que conlleva.
La idea principal de esta ley es poder regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque basado en el riesgo (determina cuatro niveles para etiquetar los sistemas de inteligencia artificial: riesgo mínimo, riesgo limitado, alto riesgo y riesgo inadmisible): cuanto mayor es el riesgo, más estrictas son las reglas.
Además, incluye prohibiciones de los sistemas biométricos que identifican a las personas por características sensibles como la orientación sexual y la raza. También establece requisitos de transparencia para todos los modelos de IA de propósito general, como el GPT-4 de OpenAI, y normas más estrictas para los modelos “muy potentes”.
Las empresas que infrinjan las normas se enfrentarían a multas de hasta 35 millones de euros o el 7 % de los ingresos mundiales, en función de la infracción y el tamaño de la empresa.
“El marco de la UE presenta un enfoque integrador, considerando el rol que deben tener tanto las Administraciones públicas como el sector privado”, destaca Adigital. Esta estrategia “ofrece una protección amplia del individuo y del consumidor, fomenta la competencia en las empresas que operan en la UE, y cumplen con los valores civiles de la Unión”.
El caso de Estados Unidos
El pasado mes de octubre, Joe Biden, presidente de Estados Unidos, emitió una orden ejecutiva para limitar los riesgos que conlleva la inteligencia artificial y que exige que aquellos productos más punteros sean sometidos a pruebas de seguridad antes de su lanzamiento. Los resultados de los test se tienen que notificar al Gobierno de Estados Unidos para que evalúe los riesgos y apruebe, o deniegue, su llegada al mercado.
Asimismo, se recomienda (no es obligatorio) a aquellas empresas que utilicen la inteligencia artificial generativa que marquen las fotos, vídeos y audios para que los ciudadanos no crean que es contenido real y las empresas que operan servicios de computación en la nube tienen que avisar de sus “clientes extranjeros”.
“El enfoque estadounidense deja la iniciativa sobre las corporaciones privadas, no habiendo desarrollado un plan estructurado de digitalización”, señala Adigital, quien también explica que “concentra sus esfuerzos públicos en la colaboración público-privada en el desarrollo de las tecnologías”.
La orden ejecutiva, basada en el compromiso voluntario de las empresas, es un primer paso de las acciones que está adoptando Estados Unidos para regular el uso de la inteligencia artificial. Bloomberg recuerda que ya existen proyectos de ley que, por ejemplo, solicitan la prohibición al Gobierno de utilizar un sistema automatizado para lanzar armas nucleares o exigen que las imágenes generadas por IA de anuncios políticos estén claramente etiquetadas. Al menos 25 Estados de EE.UU. estudiaron algún tipo de legislación relacionada con la IA en 2023, y 15 aprobaron leyes o resoluciones.
Qué está haciendo China
En el caso de China, el gigante asiático tiene una normativa muy fragmentada que, sobre todo, trata de regular los servicios de recomendación algorítmica, los deepfakes, y la IA generativa.
El 15 de agosto entró en vigor un conjunto de 24 directrices gubernamentales dirigidas a servicios como ChatGPT, que crean imágenes, vídeos, texto y otros contenidos. Según estas directrices, los contenidos generados por IA deben estar debidamente etiquetados y respetar las normas sobre privacidad de datos y propiedad intelectual.
Un año antes, en 2022, se aprobó una serie de normas que regulan los algoritmos asistidos por IA que utilizan las empresas tecnológicas para recomendar vídeos y otros contenidos.
Además, cualquier modelo funcional de IA debe ser registrado ante el Gobierno antes de que se diese a conocer al público.
“El modelo chino está marcado por el rol central del Gobierno”, señala Adigital. “Su marco regulatorio tiene como principios la planificación centralizada con fuerte apoyo del Estado al avance digital, la digitalización como motor de crecimiento y la cooperación internacional”.
Tres modelos diferentes para regular un mercado cuyo valor podría superar los 300.000 millones de dólares en 2025.