¿Recuerdas la asombrada comprensión de los líderes empresariales, tras el lanzamiento de ChatGPT, de que la IA generativa echa por tierra la mayoría de los supuestos sobre el futuro de sus organizaciones? Si se te ocurre la pregunta adecuada, es muy probable que la IA te dé una respuesta que te lleve a un lugar nuevo y emocionante. Incluso puedes preguntar cuál podría ser la pregunta correcta.
Lo que también quedó claro poco después fue que confiar en las IA públicas de grandes modelos lingüísticos (LLM), como ChatGPT, Bing, Claude y Bard, en plataformas de nube pública conlleva una serie de riesgos. Aunque las experiencias en la nube pública en cuanto a riqueza de funciones y velocidad de innovación han sido extraordinarias, las organizaciones se preocupan ahora, con razón, por la precisión, la parcialidad, la fuga de propiedad intelectual, la privacidad de los datos, la regulación y el cumplimiento emergentes, los riesgos legales desconocidos y la espiral de costes, todo lo cual limitará su uso de la nube pública.
Es una larga lista de preocupaciones que se suman a un problema de confianza fundamental para la IA.
Como resultado muchas empresas están explorando o ya están implementando IA generativa local. De hecho, según un informe reciente, la elección del lugar donde los clientes planean ejecutar la IA generativa se divide casi exactamente por la mitad en términos de nube pública frente a local y periférica.
Podemos confirmar la tendencia: Fujitsu ya está trabajando en ello con clientes y con nuestro ecosistema de socios. Como resultado, ya hemos co-creado una solución de IA generativa on-prem. Esta solución también está disponible en nuestra unidad de pruebas de IA, en la que tenemos varios POC en ejecución junto con clientes de empresas de diferentes tamaños en varios sectores verticales en toda Europa.
La raíz del problema
Los grandes modelos lingüísticos se basan en conjuntos de datos de entrenamiento masivos pero finitos. Esto conlleva riesgos en cuanto a la precisión potencial como anteponer la generalización a la especificidad, la falta de verificación y la ausencia de una fuente de verdad. Perpetuar o incluso amplificar los sesgos es otro motivo de preocupación. Cualquier sesgo en los datos de entrenamiento puede hacer que el modelo genere contenidos sesgados.
Más allá de los riesgos de utilizar IA generativas públicas, las plataformas de nube pública pueden plantear riesgos de seguridad como violaciones de la privacidad de los datos, fugas de IP y riesgos operativos.
En las instalaciones es más preciso
Volver a introducir un modelo dentro del perímetro de una organización significa que las empresas pueden ser mucho más específicas sobre las disposiciones de seguridad, privacidad, soberanía de datos y RD, por ejemplo. También pueden ser mucho más prácticas sobre lo que realmente contiene el modelo, reduciendo los riesgos de sesgo e información falsa o desactualizada.
Las organizaciones también pueden personalizarlas para casos de uso específicos. Pueden asegurarse de que la IA se entrena con datos de alta calidad, diversos y representativos. Y actualizarla continuamente con nuevos datos para mejorar su precisión, corroborando los resultados de la IA generativa con otras fuentes de confianza y educando a los usuarios sobre los puntos fuertes y las limitaciones de la IA.
Las fuentes de datos pueden ser mucho más específicas e incluir fondos que no estarían a disposición de una IA pública, por ejemplo, información contenida en equipos o en una intranet o extranet. Los datos sobre productos y servicios pueden retirarse o actualizarse a medida que cambian con el tiempo. Incluso pueden crear modelos que se circunscriban a las necesidades de unidades de negocio o departamentos específicos. Por ejemplo, los equipos jurídicos querrán obtener asesoramiento de una IA en la que la normativa tenga primacía sobre las consideraciones de marketing.
En términos prácticos, esto pone a los usuarios en situación de plantearse preguntas como: «Basándonos en las versiones más actuales de nuestra presentación de ventas y nuestra estrategia de marketing, ¿cuáles serán probablemente los mensajes más persuasivos para transmitir a los 10 principales clientes de los sectores verticales de mayor crecimiento en el segundo trimestre?».
En definitiva, la gestión interna de la IA generativa ofrece una flexibilidad y una supervisión de las que pueden carecer las opciones basadas en la nube.
Un enfoque más sostenible
En última instancia, todas estas opciones deben ser aceptables para los clientes y la sociedad. Ya hemos hablado de la confianza en la precisión, la parcialidad, la privacidad y la seguridad. Pero es probable que el impacto medioambiental adquiera la misma importancia en los próximos meses. El crecimiento exponencial de los parámetros que potencian las impresionantes capacidades de la IA tiene un coste energético y de refrigeración que puede resultar insostenible.
Sin embargo, la mayoría de los casos de uso empresarial no requieren modelos masivos. El alojamiento local permite adaptar el tamaño del modelo, el rendimiento y el coste a las necesidades de una organización. Las soluciones locales cuidadosamente personalizadas pueden ajustarse al tamaño adecuado en lugar de adoptar un enfoque monolítico en la nube de talla única. Esto alinea la eficiencia operativa con compromisos ESG más amplios.
A medida que aumenta la preocupación por las necesidades energéticas y de refrigeración de la IA generativa, las soluciones in situ ofrecen un camino más sostenible.
Empezar es cada vez más fácil
Con todas estas ventajas, no es de extrañar que la IA generativa in situ esté atrayendo tanta atención.
Embarcarse es cada vez más fácil. Fujitsu, por ejemplo, ofrece arquitecturas de referencia para optimizar la configuración y el dimensionamiento de la infraestructura, y una pila completa junto con nuestros socios, en función del caso de uso.
¿Tiene una idea para un caso de uso específico de una empresa privada para un LLM en el que necesita asesoramiento sobre cómo proceder? ¿Quizá quiere comprender por fin el contenido y las implicaciones de los cientos de contratos que su equipo de operaciones tiene abiertos en este momento? Obviamente, no quiere subir esos documentos a un entorno público. Le ofrecemos asesoramiento exhaustivo sobre lo que funciona y lo que no, y sobre la mejor manera de poner en práctica su idea.
Los Test Drives de Fujitsu de la Plataforma de Innovación DX proporcionan infraestructura de última generación y soporte de consultoría para ayudar a entender los requisitos complejos, así como validar y evaluar los datos para construir casos de negocio y seleccionar la infraestructura adecuada. Además, también se puede probar la solución GPT privada de Fujitsu.
Juan Antonio García
Senior Platform Business Solutions engineer de Fujitsu