BLOG

Información global sobre refrigeración líquida - 22 de marzo

Panasonic Tecnair lanza dos unidades de distribución de refrigerante (CDU) para refrigeración líquida.

La empresa de refrigeración Tecnair ha lanzado una nueva unidad de distribución de refrigeración (CDU) para entornos de centros de datos con refrigeración líquida.

La empresa propiedad de Panasonic presentó este mes su nueva gama de unidades de refrigeración (CDU), que, según afirmó, han sido diseñadas para satisfacer las crecientes demandas térmicas de la inteligencia artificial y la computación de alto rendimiento.

Disponibles en capacidades de 400 kW y 800 kW, Tecnair afirma que la gama ofrece escalabilidad modular, conectividad BMS con monitorización en tiempo real y fácil acceso para el mantenimiento. Se pueden integrar con los enfriadores de refrigeración libre ECOi - W de Panasonic que utilizan el refrigerante R1234ze de bajo potencial de calentamiento global (PCG).

Tecnair afirmó que las nuevas unidades de destilación de crudo (CDU) operan con un PUE de 1,02.

Lanzada en 1994, Tecnair ofrece soluciones de refrigeración por aire para centros de datos y entornos sanitarios. Su gama Techline incluye unidades de refrigeración perimetrales y en fila, así como paneles de ventilación y enfriadoras para exteriores.

La empresa italiana Tecnair fue adquirida por Panasonic en 2023. En su propio comunicado, Panasonic afirmó que estaba desarrollando unidades de destilación de condensados (CDU) con capacidades de 1,2 MW o superiores, y que la recepción de pedidos estaba prevista para comenzar en marzo de 2026.

图片1





DCX lanza tres unidades de distribución de refrigerante (CDU) con capacidades de refrigeración de entre 600 kW y 2,6 MW.

DCX Liquid Cooling Systems ha lanzado nuevas unidades de distribución de refrigeración (CDU).

Esta semana, la compañía anunció tres nuevos sistemas CDU basados en su plataforma patentada DCX ECDU (Enterprise Coolant Distribution Unit), con capacidades de refrigeración que van desde 600 kW hasta 2,6 MW. DCX indicó que las tres unidades fueron diseñadas para adaptarse a diversos entornos, desde salas de datos empresariales y centros de datos hasta infraestructura en la nube e instalaciones de hiperescala.

La unidad de refrigeración Enterprise ECDU 1380/2600 V1 ofrece una capacidad de refrigeración de 1,38 MW a 2,6 MW. La unidad de refrigeración Mission Critical ECDU 1380/2600 V1H2 incluye intercambiadores de calor redundantes y funciones adicionales de alta disponibilidad. El modelo Entry ECDU 600/1200 V1, diseñado para implementaciones de refrigeración líquida rápidas y asequibles, ofrece hasta 1,2 MW de capacidad de refrigeración en una plataforma compacta. Los tres modelos están diseñados para funcionar a 45 °C (113 °F).

DCX, con sede en Polonia, es un fabricante de soluciones de refrigeración líquida para sistemas de refrigeración directa e inmersión. La empresa ofrece unidades de refrigeración en rack, en fila y para todo el pabellón, placas frías, gabinetes de refrigeración por inmersión, enfriadores secos, centros de datos modulares en contenedores y gabinetes para minería de criptomonedas.

La empresa puso en marcha una unidad de destilación de crudo de 8 MW en enero.

图片2





NVIDIA GTC 2026

Del 16 al 19 de marzo de 2026 | San José, California y virtual

NVIDIA GTC es la principal conferencia mundial sobre IA, que se celebra esta semana en San José. Únase a miles de desarrolladores, investigadores y líderes empresariales, tanto presencialmente como en línea, para explorar los avances en IA que están transformando todos los sectores, desde la IA física y las fábricas de IA hasta la IA automatizada y la inferencia.

Conferencia magistral de NVIDIA GTC 2026

https://www.nvidia.com/gtc/keynote/


图片3





La CPU Nvidia Vera entra en plena producción, orientada a cargas de trabajo de IA con agentes.

La nueva CPU para centros de datos de Nvidia, Vera, ha entrado en plena producción y se espera que esté disponible en la segunda mitad de este año.

Tradicionalmente, la compañía ha combinado sus CPU Arm con una GPU, pero debido al auge de las cargas de trabajo de IA con gran demanda de CPU, ha optado por ofrecer también el hardware de forma independiente.

Nvidia anunció por primera vez sus planes para un negocio de CPU independientes a principios de este año, firmando un acuerdo con Meta para la distribución tanto de Grace, la generación actual, como de Vera, la próxima. Core Weave planea ser el primer proveedor de servicios en la nube en ofrecer Vera como una solución independiente.

Otros proveedores de servicios en la nube que ofrecerán Vera incluyen Oracle, Alibaba, ByteDance, Crusoe, Lambda, Nebius, Nscale, Together.AI y Vultr.

Los laboratorios nacionales también planean implementar la CPU, entre ellos el Centro de Supercomputación Leibniz, el Laboratorio Nacional de Los Alamos, el Centro Nacional de Computación Científica para la Investigación Energética del Laboratorio Nacional Lawrence Berkeley y el Centro de Computación Avanzada de Texas (TACC).

Entre los fabricantes de servidores que ofrecerán soporte para el chip se incluyen Aivres, ASRock Rack, ASUS, Compal, Cisco, Dell, Foxconn, Gigabyte, HPE, Hyve, Inventec, Lenovo, MiTAC, MSI, Pegatron, Quanta Cloud Technology (QCT), Supermicro, Wistron y Wiwynn.

El chip contiene 88 núcleos Olympus personalizados diseñados por Nvidia. Cada núcleo puede ejecutar dos tareas simultáneamente, utilizando la tecnología Nvidia Spatial Multithreading con particionamiento físico. Vera incorpora memoria LPDDR5X y ofrece un ancho de banda de hasta 1,2 TB/s.

Estará disponible en configuraciones de servidor con CPU de doble y de un solo socket.


图片4





Nvidia anuncia el chip de inferencia de IA Groq 3 LPU y planea un rack de 256 LPU.

Nvidia ha anunciado el tan esperado chip de Unidad de Procesamiento del Lenguaje (LPU), fruto de la adquisición parcial del diseñador de chips Groq.

La unidad de procesamiento local (LPU) Nvidia Groq 3 estará disponible en racks LPX con refrigeración líquida, que incluyen 256 LPU con 128 GB de SRAM integrada y un ancho de banda escalable de 640 TB/s. El rack está diseñado para cargas de trabajo de inferencia de IA de baja latencia.

En Nochebuena, Nvidia gastó 20.000 millones de dólares en la licencia de la tecnología de Groq y contrató a su equipo directivo, incluido el director ejecutivo Jonathan Ross, así como a otros empleados.

Según Buck, la empresa pretende combinar ambos enfoques de chips "para llegar a ese futuro multiagente".

Estos dos procesadores combinarán la potencia de cálculo extrema de las GPU y el ancho de banda de las LPU en uno solo. Comparemos: una GPU con sus 288 gigabytes de memoria, frente a solo 500 megabytes de SRAM apilada. La LPU tiene solo una quincuagésima parte de la capacidad por chip, pero su ancho de banda es excepcional, de entre 22 y 150 terabytes por segundo.

El rack LPX estará disponible en la segunda mitad de este año, "coincidiendo con Vera Rubin".


图片5





Nvidia presenta el diseño de referencia de Vera Rubin DSX AI Factory y el gemelo digital Omniverse DSX.

Nvidia ha lanzado el diseño de referencia Vera Rubin DSX AI Factory, una guía para la construcción de centros de datos que admiten sus últimos racks de CPU-GPU y la red Ethernet y el almacenamiento Spectrum-X.

El Nvidia Omniverse DSX Blueprint, que es un gemelo digital para el diseño, la construcción y las operaciones a gran escala, también está disponible actualmente y es compatible con el nuevo diseño de referencia.

El diseño del Vera Rubin DSX fue desarrollado en colaboración con Cadence, Dassault Systèmes, Eaton, Jacobs, Nscale, Phaidra, Procore, PTC, Schneider Electric, Siemens, Switch, Trane Technologies y Vertiv.

Rubin DSX incluye varias bibliotecas de software. DSX Max-Q se centra en maximizar el rendimiento computacional y el rendimiento de tokens por vatio en sistemas Nvidia dentro de un presupuesto de energía fijo. DSX Flex conecta las fábricas de IA a los servicios de la red eléctrica, lo que les permite ajustar dinámicamente el consumo de energía y gestionar la demanda con generación híbrida in situ para ahorrar energía y mantener la estabilidad de la red.

DSX Exchange permite la integración escalable y segura de señales de computación, red, energía, potencia y plantas de refrigeración entre TI, tecnología operativa y agentes de operaciones.

Los modelos DSX Sim validan las fábricas de IA como gemelos digitales de alta fidelidad, utilizando la plataforma DSX Air para modelar las GPU, las redes y la infraestructura de los socios, y DSX SimReady conecta la geometría 3D detallada, la logística y el comportamiento del sistema.


图片6





Meta presenta las próximas cuatro generaciones de su chip MTIA.

Meta ha anunciado las próximas cuatro generaciones de su chip Meta Training and Inference Accelerator (MTIA).

Meta ha declarado que los nuevos chips, denominados MTIA 300, 400, 450 y 500, ya se han implementado o está previsto que se implementen en los próximos 18 meses, y se utilizarán principalmente para dar soporte a las cargas de trabajo de inferencia de IA generativa.

Según Meta, cada nuevo chip ofrecerá mejoras en la capacidad de procesamiento, el ancho de banda de la memoria y la eficiencia. Además, en una publicación de blog donde detalla los chips, la compañía afirmó que, dado el rápido ritmo de la innovación en IA, ha desarrollado la capacidad de lanzar un nuevo chip aproximadamente cada seis meses.

En comparación, el MTIA 400 ofrece seis petaflops de rendimiento de cálculo FP8, con un TDP de 1200 W. En cuanto a su ancho de banda HBM, el chip proporciona un aumento del 51 por ciento, hasta alcanzar los 9,2 Tbps, con una capacidad HBM total de 288 GB.

Para redes de escalado vertical y horizontal, el MTIA 400 proporciona 1,2 Tbps y 100 Gbps, respectivamente. Un rack con 72 dispositivos MTIA 400, conectados mediante un plano posterior conmutado, forma un único dominio de escalado vertical y puede admitir tecnologías de refrigeración líquida asistida por aire y refrigeración líquida que ya se utilizan en centros de datos, según Meta.

El MTIA 400 ya ha sido probado en los laboratorios de Meta, y la compañía está "en camino" de implementar el chip en sus centros de datos. El MTIA 450 y el MTIA 500 están programados para su implementación masiva a principios de 2027, y ambos también proporcionarán una red escalable verticalmente de 1,2 Tbps y horizontalmente de 100 Gbps.

A nivel de sistema, Meta afirmó que los modelos MTIA 400, 450 y 500 utilizan el mismo chasis, bastidor e infraestructura de red, lo que significa que cada nueva generación de chips se puede integrar fácilmente en los centros de datos existentes.


图片7





Switch integra Nvidia Omniverse DSX Blueprint en el diseño del centro de datos EVO AI.

El operador de centros de datos Switch ha integrado el Nvidia Omniverse DSX Blueprint en su arquitectura EVO AI Factory y en el sistema operativo LDC EVO.

La compañía anunció EVO el año pasado, un nuevo diseño de centro de datos que, según afirma, puede soportar hasta 2 MW por rack.

LDC EVO es la respuesta de Switch a DCIM, y la compañía afirma que permite la automatización de todos los sistemas del centro de datos en "tiempo casi real", con un gemelo digital 3D actualizado de las instalaciones.

El año pasado, Nvidia anunció Omniverse Blueprint para gemelos digitales de fábricas de IA, que permite a los clientes agregar datos detallados de simulación y 3D que representan todos los aspectos del centro de datos en un único modelo unificado, lo que les permite diseñar y simular hardware de alta densidad.

En septiembre, Nvidia anunció que ofrecería Omniverse Blueprint, un gemelo digital que podría escalar a centros de datos de IA de clase gigavatio.

El sistema tiene como objetivo acelerar el despliegue de centros de datos, al tiempo que garantiza que sean compatibles con los diseños DGX de Nvidia.


图片8





La empresa xAI de Musk recibe luz verde para instalar 41 turbinas de gas natural en Mississippi que alimentarán los centros de datos de Colossus.

xAI ha recibido permiso para instalar 41 turbinas de gas natural en un emplazamiento en Mississippi que generarán 1,2 GW para alimentar sus centros de datos en la zona.

La empresa de inteligencia artificial de Elon Musk, creadora del chatbot Grok, obtuvo un permiso de la Ley de Aire Limpio por parte del Departamento de Calidad Ambiental de Mississippi (MDEQ) en una reunión celebrada el martes.

Las turbinas, que se instalarán en una antigua central eléctrica de Duke Energy en Southaven, se utilizarán para alimentar el centro de datos Colossus 2 de xAI, ubicado a unos cientos de metros de Tulane Road, al otro lado de la frontera estatal, en el distrito de Whitehaven de Memphis. También suministrarán energía al futuro centro de datos Colossus 3 de la empresa en Mississippi.

xAI adquirió los terrenos de Southaven en julio de 2025.

En un comunicado publicado en X, la plataforma de redes sociales propiedad de Musk, que también forma parte de xAI, la compañía afirmó estar "encantada de que el MDEQ haya aprobado nuestro permiso de construcción permanente, lo que permite generar 1,2 GW de capacidad de generación de energía propia".

xAI utiliza sus centros de datos en Tennessee para dar soporte a su chatbot Grok AI. La compañía llegó a Memphis en 2024, donde inauguró su supercomputadora Colossus en un nuevo centro de datos ubicado en una antigua fábrica de Electrolux en el distrito Boxtown de Memphis.

La compañía adquirió el terreno para Colossus 2 en marzo del año pasado, y el centro de datos entró en funcionamiento en enero. A pesar de que Musk afirmó que ofrecía 1 GW de capacidad en el momento del lanzamiento, las imágenes satelitales tomadas en enero mostraron, según se informa, que contaba con equipos de refrigeración instalados capaces de gestionar 350 MW.


图片9





Microsoft inicia la construcción de un centro de datos en Bergheim, Alemania.

Microsoft ha iniciado la construcción de un centro de datos en Bergheim, Alemania.

Según informa WDR, han comenzado las obras, en las que las excavadoras están retirando la tierra suelta como preparación para la construcción de un centro de datos.

El 12 de marzo se celebró una ceremonia simbólica de colocación de la primera piedra, a la que asistió Mona Neubaur, ministra de Asuntos Económicos de Renania del Norte-Westfalia. Según Neubaur, se espera que este acto sirva como punto de partida para la actividad minera renana y anime a otras empresas a establecerse en la zona en el futuro.

Microsoft reveló por primera vez sus planes para construir en Bergheim en noviembre de 2024. En aquel entonces, se anunció que la compañía desarrollaría un centro de datos de 25 144 metros cuadrados (270 650 pies cuadrados) en un terreno de 20 hectáreas en el parque industrial INKA: terra nova. Inicialmente, se esperaba que la construcción comenzara en 2024, con una fecha de inauguración prevista para 2026.

El centro de datos utilizará un sistema de refrigeración de circuito cerrado y la electricidad se generará exclusivamente a partir de energía eólica limpia.

El proyecto del centro de datos de Bergheim forma parte de los planes de Microsoft para invertir 3200 millones de euros (3440 millones de dólares) con el fin de duplicar su infraestructura de IA y su capacidad de computación en la nube en Alemania. Los fondos se destinarían a la expansión de la región de nube de Microsoft en Fráncfort, así como a la infraestructura prevista en Renania del Norte-Westfalia.

Además de Bergheim, Microsoft anunció simultáneamente sus planes para desarrollar un terreno de 18 hectáreas en el nuevo polígono industrial BEB61 en Bedburg. Casi un año después, en septiembre de 2025, anunció planes para desarrollar un tercer terreno en Elsdorf.


图片10





Hive amplía su presencia en la nube Buzz en Canadá.

Hive Digital Technologies anunció esta semana una expansión cuádruple de su campus de centros de datos refrigerados por líquido en Canadá a través de su filial de propiedad absoluta, Buzz HPC.

La compañía ha ampliado su capacidad existente de 4 MW en Manitoba a 16,6 MW para cubrir cargas críticas de TI en dos provincias canadienses, en colaboración con Bell Canada.

La expansión incluye un nuevo centro de datos en la Columbia Británica, que proporciona una capacidad inmediata de 5 MW con la opción de ampliarla a 7,6 MW adicionales. La compañía indicó que la primera fase de capacidad admitirá más de 2000 GPU, mientras que los 7,6 MW adicionales podrían admitir hasta 3000 GPU.

En Manitoba, Buzz ha desplegado 504 GPU de última generación optimizadas para IA, con un consumo aproximado de 1 MW. Los 3 MW restantes darán soporte a aproximadamente 1500 GPU adicionales.

Holmes añadió que Hive posee y opera otros centros de datos en Canadá que son "ideales para su conversión" para dar servicio a la colocación de hiperescaladores y a contratos gubernamentales o militares.

Hive se fundó en 2017 y opera en Canadá, Suecia y Paraguay. Sus centros de datos dan servicio tanto a clientes de Bitcoin como de computación de alto rendimiento (HPC). Sin embargo, la empresa está reorientando su estrategia para centrarse principalmente en sus clientes de HPC.

Aydin Kilic, presidente y director ejecutivo de Hive, añadió: «Esta expansión nos proporciona capacidad de centro de datos refrigerado por líquido en dos provincias y un camino claro hacia más de 6000 GPU de próxima generación optimizadas para IA en Canadá. A medida que aumente la demanda de computación para IA, podremos desplegar rápidamente clústeres adicionales de GPU optimizadas para IA y así alcanzar nuestros objetivos de ingresos recurrentes anuales (ARR) para 2026, al tiempo que incrementamos el EBITDA con una estrategia de inversión de capital reducida».


图片11




NEXT:Already the last page

Deja una respuesta

Entregar