BLOG

Información global sobre refrigeración líquida: 20 de febrero

Los servicios de refrigeración líquida Vertiv™ respaldan y mejoran todo el ciclo de vida de los sistemas refrigerados por líquido

  • Columbus, Ohio [11 de febrero de 2025] – Vertiv (NYSE: VRT), un proveedor global de infraestructura digital crítica y soluciones de continuidad, anunció hoy el lanzamiento de los servicios de refrigeración líquida Vertiv™.

  • Esta oferta proporciona a los clientes las herramientas necesarias para mejorar la disponibilidad del sistema, mejorar la eficiencia y afrontar con confianza los desafíos cambiantes de los sistemas avanzados de refrigeración líquida. La oferta ya está disponible a nivel mundial.

  • Las cargas de trabajo de IA siguen transformando el panorama de los centros de datos, lo que genera un aumento significativo en la densidad de los racks de los centros de datos, con racks de 30 kW que ahora se están convirtiendo en el estándar y algunos alcanzan hasta 120 kW o más. Los operadores se enfrentan a mayores cargas térmicas, mayores densidades de energía y la necesidad de soluciones de refrigeración líquida para mantener la continuidad operativa es muy demandada.

  • La oferta de servicios de refrigeración líquida de Vertiv se centra en proporcionar una integración perfecta de los sistemas de refrigeración líquida con los equipos de TI y la infraestructura adyacente.

  • Los servicios de refrigeración líquida Vertiv™ incluyen una gama completa de soluciones diseñadas para soportar entornos informáticos de alto rendimiento e impulsados por IA, proporcionando una integración perfecta, confiabilidad a largo plazo y continuidad operativa.

1.png



Overwatch y Nautilus se asocian para implementar un centro de datos de IA modular

  • La firma estadounidense de inversión sustentable Overwatch Capital se ha asociado con Nautilus Data Technologies para implementar centros de datos modulares preparados para IA alimentados principalmente por microrredes de energía limpia en todo el mercado estadounidense.

  • La asociación aprovechará el desarrollo del centro de datos modular de Overwatch y la integración de energía limpia con la infraestructura EcoCore de Nautilus, incorporando tecnologías avanzadas de gestión térmica y refrigeración líquida.

  • Overwatch y Nautilus planean entregar centros de datos modulares prefabricados que integren sistemas mecánicos, eléctricos y de plomería críticos dentro de una única estructura escalable. Según las empresas, el enfoque permitirá una rápida implementación y una expansión de capacidad de varios gigavatios en mercados clave de EE. UU.

  • La infraestructura EcoCore de Nautilus es un diseño de centro de datos modular con una capacidad de 2,5 MW. La empresa afirma que permite una refrigeración eficiente de clústeres de GPU de alta densidad sin depender de los métodos tradicionales de consumo de agua, lo que reduce el impacto ambiental y mantiene la fiabilidad del rendimiento.

  • En marzo del año pasado, Nautilus lanzó la línea de productos EcoCore y anunció un acuerdo de centro de datos de "varios megavatios" con Start Campus. A través de EcoCore, Nautilus se está expandiendo más allá de la colocación y se está convirtiendo en proveedor de otros operadores de centros de datos.


2.png



HPE anuncia el envío de su primer sistema NVIDIA Grace Blackwell

  • 13 DE FEBRERO DE 2025 – Hewlett Packard Enterprise (NYSE:HPE) anunció hoy que ha enviado su primera solución basada en la familia NVIDIA Blackwell, la NVIDIA GB200 NVL72.

  • Este sistema a escala de rack de HPE está diseñado para ayudar a los proveedores de servicios y grandes empresas a implementar rápidamente clústeres de IA muy grandes y complejos con soluciones avanzadas de refrigeración líquida directa para optimizar la eficiencia y el rendimiento.

  • NVIDIA GB200 NVL72 cuenta con una arquitectura de memoria compartida y baja latencia con la última tecnología de GPU diseñada para modelos de IA extremadamente grandes de más de un billón de parámetros, en un espacio de memoria. GB200 NVL72 ofrece una integración perfecta de CPU, GPU, bandejas de computación y conmutación, redes y software de NVIDIA, lo que une un rendimiento extremo para abordar cargas de trabajo altamente paralelizables, como el entrenamiento y la inferencia de modelos de IA generativa (GenAI), junto con las aplicaciones de software de NVIDIA.

  • Con los crecientes requisitos de energía y la dinámica de la densidad del centro de datos, HPE tiene cinco décadas de experiencia en refrigeración líquida que posiciona a la empresa de manera única para ayudar a los clientes a lograr una implementación rápida y un amplio sistema de soporte de infraestructura para entornos complejos refrigerados por líquido.


3.png



YouTube crea el primer bloque de agua del mundo para NVIDIA RTX 5090 FE

  • El famoso entusiasta alemán Der8auer ha creado un sistema de refrigeración líquida para la NVIDIA RTX 5090 Founders Edition. La tarea se complica por el diseño de la nueva tarjeta de vídeo.

  • La electrónica de la RTX 5090 FE está formada por tres placas de circuito impreso y utiliza metal líquido como interfaz térmica, pero las diferencias técnicas dificultan la creación o modificación de sistemas de refrigeración líquida para ella. El prototipo de Der8auer logró reducir la temperatura de la GPU de 73,8 °C a 43,8 °C.

  • El bloque de agua está fabricado completamente de cobre, incluida la placa de refrigeración y la cubierta exterior. Fue diseñado como una prueba de concepto y es minimalista pero de diseño prolijo. La cubierta de vidrio transparente permite ver el líquido que fluye más allá de la placa. El elemento de refrigeración en sí está hecho de cobre de 14 mm y tiene múltiples pasadas para enfriar todo el gran chip GB202.

  • El bloque de líquido ocupa dos ranuras y tiene la misma longitud y altura que el disipador estándar RTX 5090 FE.


4.jpg



Supermicro publica sólidos resultados en IA, pero advierte sobre problemas de suministro de Blackwell

  • Supermicro ha dicho que espera que las ventas netas para el segundo trimestre de 2025 estén en el rango de $ 5,6-5,7 mil millones, a pesar de que la compañía aún no ha entregado su informe anual retrasado.

  • El presidente y director ejecutivo, Charles Liang, dijo que el equipo financiero de Supermicro y su nuevo auditor, BDO, han estado "plenamente comprometidos en completar el proceso de auditoría" y que está "seguro" de que el informe se presentará ante la SEC antes de la fecha límite del 25 de febrero.

  • Supermicro dijo que espera que los ingresos oscilen entre 23.500 millones y 25.000 millones de dólares para el año fiscal 2025, por debajo de la previsión anterior de la compañía de entre 26.000 y 30.000 millones de dólares. Para el año fiscal 2026, la compañía espera ver 40.000 millones de dólares en ingresos, algo que Liang describió en la conferencia como una "estimación relativamente conservadora", por encima de las expectativas de los analistas para el período de 30.000 millones de dólares.

  • La compañía dijo que su crecimiento fue impulsado por la demanda de plataformas de GPU de IA a escala de rack refrigeradas por aire y DLC (refrigeración líquida directa), y que las plataformas relacionadas con IA contribuyeron a más del 70 por ciento de los ingresos de la compañía en el segundo trimestre en los mercados de proveedores de servicios empresariales y de nube.

  • En cuanto a la producción, Liang dijo a los analistas que los campus estadounidenses de Supermicro ahora cuentan con 20 MW de potencia, lo que les permite producir más de 1.500 GPU DLC por mes.

  • Esto incluye “expandir y mejorar” las soluciones de infraestructura total del centro de datos refrigerado por líquido de la empresa con la última tecnología DLC, algo que, según Liang, estaba ejemplificado por xAI Colossus, la supercomputadora de inteligencia artificial refrigerada por líquido más grande del mundo.


6.jpg



La oferta de 97.000 millones de dólares de Musk por OpenAI complica la recaudación de fondos y los planes de Stargate

  • Elon Musk ha ofrecido comprar la parte sin fines de lucro de OpenAI por 97.400 millones de dólares.

  • La propuesta, que según Musk cuenta con el respaldo de un grupo de inversores, se produce en un momento en que OpenAI está intentando pasar a ser una empresa con fines de lucro, recaudar decenas de miles de millones y gastarlos en la iniciativa del centro de datos Stargate.

  • Actualmente, la empresa de inteligencia artificial generativa es técnicamente una organización sin fines de lucro con una subsidiaria con fines de lucro, pero OpenAI planea convertirse en una corporación de beneficio público con fines de lucro, con una división sin fines de lucro. Se espera que Altman reciba capital como resultado.

  • Al mismo tiempo, OpenAI está intentando recaudar entre 30 y 40 mil millones de dólares, con una valoración de entre 300 y 340 mil millones de dólares. Gran parte de ese dinero se invertiría en Stargate, la empresa conjunta de 500 mil millones de dólares para desarrollar centros de datos de inteligencia artificial en Estados Unidos.

  • Actualmente se espera que OpenAI invierta 19 mil millones de dólares en Stargate, pero necesita que esta ronda de financiación se cierre para poder tener suficiente efectivo para hacerlo.

  • El propietario de la empresa rival xAI donó menos de 45 millones de dólares a la organización sin fines de lucro cuando se formó (sin embargo, afirmó que fueron 100 millones de dólares) y dijo: "Parece extraño que algo pueda ser una organización sin fines de lucro, de código abierto y de alguna manera transformarse en una organización con fines de lucro, de código cerrado". El propio Musk intentó hacer que OpenAI fuera con fines de lucro, como parte de Tesla.

  • Altman agregó: "Creo que toda su vida se ha desarrollado desde una posición de inseguridad. Lo siento por él. No creo que sea una persona feliz".


7.png



AirTrunk anuncia el segundo centro de datos de Malasia en Johor

  • El operador de centros de datos AirTrunk ha anunciado planes para construir un segundo centro de datos de Malasia en Iskandar Puteri, Johor.

  • La instalación JHB2 será escalable a más de 270 MW y elevará la inversión total de la compañía en Malasia a RM 9,7 mil millones (USD 2,2 mil millones).

  • JHB2 utilizará tecnología de refrigeración líquida y estará diseñado para cumplir con un PUE de 1,25, con múltiples opciones de energía renovable disponibles para los clientes.

  • Esto sigue al lanzamiento de la instalación JHB1 de AirTrunk en julio de 2024, después de anunciar inicialmente su expansión en Malasia a principios de 2023. JHB1 ofrece 21.900 metros cuadrados (235.750 pies cuadrados) de espacio en 20 salas de datos y más de 150 MW de capacidad.

  • AirTrunk anunció recientemente implementaciones de energía solar en su instalación JHB1 y firmó un vPPA para un centro de datos de 30 MW de energía renovable bajo el Programa Corporativo de Energía Verde de Malasia.

  • Johor se ha convertido en un mercado popular para los operadores de centros de datos, con empresas como Keppel, Princeton Digital, STT GDC, Yondr y Equinix teniendo presencia en la región.


8.jpg



G42 y DataOne establecerán un centro de datos de IA en Francia

  • G42 está trabajando con DataOne para establecer un centro de datos de IA, impulsado por hardware AMD, en Francia.

  • Core42, una subsidiaria de la empresa de inteligencia artificial y nube con sede en Abu Dhabi, instalará su infraestructura en el centro de datos de DataOne en Grenoble, sureste de Francia.

  • Kiril Evtimov, director de tecnología del grupo G42 y director ejecutivo de Core42, afirmó: "Francia está dando pasos agigantados en materia de innovación en IA, y G42 se enorgullece de contribuir a este esfuerzo. Al implementar las GPU de AMD, no solo estamos fortaleciendo la infraestructura de IA de Europa, sino que también estamos permitiendo que las empresas y los investigadores aceleren la innovación a gran escala.

  • DataOne fue fundada el año pasado por el proveedor de infraestructura y conectividad BSO. Con el respaldo del fondo de deuda Ardian, la empresa está ampliando dos campus de nivel III en Francia: el de Grenoble y un centro de datos en Villefontaine, Lyon. Actualmente, estos centros de datos ofrecen una carga de TI combinada de 15 MW, pero DataOne pretende ampliarla a 400 MW para 2028.

  • El centro de datos funcionará con una cantidad no especificada de GPU AMD de la gama de chips de inteligencia artificial Instinct de la compañía.

  • El anuncio del G42 se produjo como parte de una cumbre internacional de IA celebrada en Francia esta semana, y sigue a un compromiso de Brookfield de gastar 20 mil millones de euros (20,7 mil millones de dólares) en infraestructura de IA francesa durante los próximos cinco años.


9.png



El gobierno del Reino Unido promete 500 MW de energía para centros de datos en sus zonas de crecimiento de IA

  • El gobierno del Reino Unido dice que trabajará con compañías eléctricas para que hasta 500 MW de electricidad estén disponibles para nuevos desarrollos de centros de datos en cada una de sus zonas de crecimiento de IA planificadas.

  • Su objetivo es crear áreas con condiciones favorables para la construcción de infraestructura de IA, con reglas de planificación simplificadas que permitan aprobar desarrollos rápidamente y un suministro de energía suficiente.

  • El secretario de Tecnología, Peter Kyle, dijo que las zonas de crecimiento de la IA “ofrecerán oportunidades incalculables, generando nuevos empleos, nuevas inversiones y garantizando que cada rincón del país tenga un interés real en nuestro futuro impulsado por la IA”.

  • La primera zona de crecimiento de IA se construirá en Culham, Oxfordshire, sede de la Autoridad de Energía Atómica del Reino Unido. AWS y CloudHQ ya operan centros de datos cerca de Culham.

  • Desde que asumió el cargo en julio, el gobierno del Reino Unido ha manifestado su intención de atraer más inversiones en centros de datos al país. Para ello, ha designado a los centros de datos como infraestructura nacional crítica y se ha comprometido a reformar las leyes de planificación para facilitar la construcción de nuevas instalaciones en terrenos de zonas verdes.


10.jpg



xAI de Musk está considerando un segundo centro de datos y un acuerdo de 5.000 millones de dólares con Dell Server

  • La startup de inteligencia artificial xAI está considerando construir un segundo centro de datos, después de establecer un gran clúster en Memphis, Tennessee, informa The Information.

  • Al mismo tiempo, Bloomberg informa que la compañía de Elon Musk está en conversaciones avanzadas con Dell Technologies para comprar 5.000 millones de dólares en servidores de inteligencia artificial.

  • La bandeja de cómputo Nvidia GB200 contiene dos CPU Nvidia Grace y cuatro GPU Blackwell. La supercomputadora Memphis 'Colossus' se construyó utilizando servidores Dell y Supermicro, con un total de 100.000 GPU Nvidia.

  • En octubre, Musk dijo que planeaba aumentar la capacidad del sitio a 200.000 GPU, y luego, en diciembre, cambió la cifra a un millón de GPU. Para ayudar a financiar los desarrollos, se dice que xAI está en conversaciones para recaudar 10.000 millones de dólares en una ronda que valoraría a xAI en 75.000 millones de dólares.

  • Además del desarrollo y la recaudación de fondos, Musk busca frustrar los planes de su rival OpenAI de tener fines de lucro, algo clave para financiar su proyecto Stargate de 500 mil millones de dólares.


11.jpg



Meta en conversaciones para adquirir la startup de chips de inteligencia artificial Furiosa AI

  • Según se informa, Meta está en conversaciones para adquirir la startup surcoreana de chips de inteligencia artificial FuriosaAI.

  • FuriosaAI, fundada en 2017 y con sede en la capital de Corea del Sur, Seúl, ha recaudado aproximadamente 115 millones de dólares en cuatro rondas de financiación para respaldar el desarrollo de su chip RNGD. El chip de inferencia de IA tiene una potencia de diseño térmico (TDP) de 150 W, pero la empresa afirma que, en comparación con las GPU H100 de Nvidia (que tienen una TDP de 350 W), RNGD ofrece un rendimiento por vatio tres veces mejor.

  • Está previsto que el RNGD entre en producción en masa en la segunda mitad de este año.

  • Se sabe desde hace tiempo que Meta busca desarrollar sus propios chips para reducir su dependencia del hardware de Nvidia. En febrero de 2024, según documentos vistos y reportados por Reuters, la compañía planeaba implementar la segunda generación del chip Meta Training and Inference Accelerator (MTIA).

  • Originalmente, se esperaba que Meta lanzara sus chips internos en 2022, pero descartó el plan después de no cumplir con los objetivos internos, y el cambio de CPU a GPU para el entrenamiento de IA obligó a la empresa a rediseñar sus centros de datos y cancelar múltiples proyectos.

  • Meta no es la única empresa que busca reducir su dependencia de Nvidia desarrollando sus propios chips. A principios de esta semana, se informó que OpenAI está finalizando el diseño de su primer chip de entrenamiento de IA personalizado, que será fabricado por TSMC y fabricado con la tecnología de 3 nm del fabricante de chips.


12.jpg


PRE:ALready the first page
NEXT:Already the last page

Deja una respuesta

Entregar