Tras más de dos décadas de innovación en el desarrollo de un cloud sostenible, OVHcloud ha lanzado una calculadora de carbono que permitirá a sus clientes de IaaS generar informes mensuales sobre sus emisiones de carbono relacionadas con el cloud. Una iniciativa, desarrollada en colaboración con Sopra Steria y cuya metodología ha sido auditada por IJO, con la que la multinacional francesa pretende proporcionar una mayor transparencia y fomentar prácticas más responsables en el sector.
La calculadora, que ha visto la luz tras ocho meses de trabajos, está disponible bajo demanda desde el área de cliente de la compañía. Recopila el consumo energético estimado de los servidores basado en la monitorización de los centros de datos de OVHcloud y signa el equivalente en emisiones de carbono, teniendo en cuenta los sistemas de refrigeración y de red, el transporte, la fabricación, el final de la vida útil y la gestión de residuos con el fin de proporcionar una completa imagen de la huella de carbono real. La ubicación es importante ya que los resultados de los informes dependen de la combinación energética local.
A finales de año la información basada en el mercado complementará estos informes, poniendo de relieve el compromiso del grupo con la reducción de la huella de carbono del mix energético.
La marca también es noticia por el desarrollo de infraestructuras para la inteligencia artificial que incluyen las nuevas GPU NVIDIA H100 y A100 Tensor Core. Los clientes podrán elegir entre una gama de soluciones para impulsar sus cargas de trabajo de aprendizaje automático más ambiciosas, incluidos los grandes modelos de lenguaje (LLM).
En la nueva oferta figuran las GPU NVIDIA H100, NVIDIA A100, NVIDIA L40S y NVIDIA L4, con un despliegue efectivo en las próximas semanas. Esta selección permite la elasticidad del cloud para satisfacer sus necesidades de entrenamiento o inferencia.
Las nuevas instancias NVIDIA A100 de 80 GB ya están disponibles y permiten a los especialistas en IA ejecutar proyectos complejos en los Tensor Cores altamente especializados de NVIDIA. Por su parte las instancias GPU basadas en H100 incorporan los últimos avances de NVIDIA, con 26 petaFLOPS (FP64) de potencia de cálculo por GPU PCIe. Diseñada específicamente para los modelos de IA más exigentes, NVIDIA H100 es la elección de referencia para la innovación en IA para acelerar LLM con su Transformer Engine o para crear aplicaciones de IA generativa.
Para los casos de uso más complejos, especialmente en el ajuste fino y en el entrenamiento, el grupo ofrecerá soluciones basadas en NVIDIA H100 SXM. Con una capacidad de cálculo de 67 TFlops (FP64) y un mayor ancho de banda de GPU, esta oferta demostrará toda la potencia de la arquitectura de GPU NVIDIA Hopper.
El grupo también ha anunciado nuevas instancias GPU dotadas de GPU NVIDIA L4 con 24 GB de memoria. Basada en la arquitectura de GPU Ada Lovelace de NVIDIA es una GPU universal orientada a todo tipo de cargas de trabajo con funciones mejoradas de IA y vídeo. Este chip proporciona recursos de cálculo óptimos escenarios de gráficos, simulación, ciencia de datos y análisis de datos.