En los últimos tiempos estamos siendo testigos de los movimientos que diferentes personalidades del mundo de la tecnología están llevando a cabo en torno a la inteligencia artificial, algo que lleva a los analistas a advertir sobre los desequilibrios que podría generar el uso de esta tecnología. Fernando de Águeda, vicepresidente de la consultora Scalian y responsable de la firma en España, destaca que la IA da poder, lo que motiva a intentar controlarla, aunque manifiesta que, si no se controla, su uso y desarrollo pueden volverse impredecibles y peligrosos. “La clave no es controlar la IA, sino determinar cómo hacerlo. Este desafío requiere responsabilidad, sin frenar su potencial ni dejarla en manos equivocadas”, señala.
El control de la IA tiene dos aspectos: técnico y ético, recuerda. En el ámbito técnico, Scalian destaca niveles como la supervisión humana, límites en la toma de decisiones, filtros y restricciones, explicabilidad y autoría, regulación y legislación. En el ámbito ético, son importantes la protección de datos, la privacidad, la transparencia del algoritmo y la vigilancia contra abusos y monopolios. “La regulación ética no limita la innovación, sino que la potencia y la legitima ante la sociedad, generando confianza y facilitando su adopción generalizada”, argumenta.
El ámbito geopolítico lo encabezan las principales potencias: Estados Unidos, país en el que operan gigantes tecnológicos como Meta, Amazon, Open AI, Google y Microsoft. China, donde el gobierno tiene el control. Y la Unión Europea, con una mayor vocación ética pero menor innovación. Para el CEO de Scalian España esta distribución deriva en una desigualdad tecnológica y una falta de cooperación global. Y ante esto, y la pregunta de si es necesaria una regulación global o si cada país debería establecer la suya propia, su respuesta pasa por que en un mundo conectado la IA no tiene fronteras. “Si cada país establece sus propias reglas, será un caos: algunas empresas operarían sin restricciones mientras otras estarían limitadas. Sin una regulación global, el riesgo de abuso o monopolios será enorme”, explica.
En cuanto a si los estados deben desarrollar su propia IA para los ciudadanos, sostiene que en función del gobierno y si se confía en el mismo porque “en teoría, una IA gubernamental podría mejorar la eficiencia del Estado, automatizar trámites, optimizar recursos y facilitar el acceso a servicios públicos. Pero en la práctica, si el gobierno no es transparente ni confiable, considera que no se podrían tener garantías de una manipulación.
En cuanto a la relación entre las compañías tecnológicas y los estados, opina que esta debería llevarse a cabo con límites. En su opinión lo ideal sería un modelo de colaboración regulada, donde las empresas comparten información clave sin comprometer su innovación.
“La IA puede ser una herramienta de progreso o de control masivo. Todo dependerá de quién la controle y con qué propósito. Necesitamos un equilibrio entre regulación, supervisión, innovación y ética. Y la pregunta no es si podemos controlar la IA sino quién debería hacerlo”, concluye Fernando de Águeda.