Vertiv har tillsammans med NVIDIA utvecklat en komplett 7 MW referensarkitektur för kraft- och kylinfrastruktur som är optimerad för NVIDIAs GB200 NVL72-plattform.
Lösningen är designad för att hjälpa företag att transformera sina traditionella datacenter till AI-fabriker som kan köra avancerade AI-applikationer över hela företagen.
“Det är med stolthet vi fördjupar vårt samarbete med NVIDIA för att möjliggöra AI-drivna datacenter i dag och imorgon”, säger Giordano (Gio) Albertazzi, VD för Vertiv.
“Som ledare inom kritisk kraft- och kylinfrastruktur är Vertiv unikt positionerat för att stödja NVIDIA GB200 NVL72-plattformen. Vår portfölj av kraft- och kylningslösningar med hög prestanda, i kombination med vår globala skala, kommer att göra det möjligt för kunder att distribuera AI-datacenter snabbare, effektivare och med större flexibilitet för att hantera förtätning, dynamiska arbetsbelastningar, ombyggnader och möjliggöra framtida konstruktioner.”
“Nya datacenter är byggda för accelererad datoranvändning och generativ AI med arkitekturer som är betydligt mer komplexa än de för generella datorer”, säger Jensen Huang, grundare och VD för NVIDIA.
“Med Vertivs kylnings- och kraftteknologier i världsklass kan NVIDIA förverkliga vår vision att återuppfinna datoranvändning och skapa en ny industri av AI-fabriker som producerar digital intelligens till nytta för företag i alla branscher.”
Här är de viktigaste aspekterna av detta samarbete och den nya lösningen.
Nyckelfunktioner i referensarkitekturen:
- Storskalig kapacitet och skalbarhet: Den nya arkitekturen stöder upp till 132 kW per rack och är designad för att hantera upp till 7 MW totalt. Detta gör den idealisk för att stödja de intensiva beräkningskraven för AI och andra högpresterande applikationer.
- Kraft- och kylsystem för hög densitet: Lösningen använder en hybrid vätske- och luftkylningsinfrastruktur för att effektivt hantera den höga värmeutvecklingen från AI-arbetsbelastningar. Denna kombination av kylteknologier minskar kylkostnaderna med upp till 20 % jämfört med traditionella system.
- Snabbare installation och ombyggnad: Med förkonfigurerade moduler och fabriksintegration kan denna lösning implementeras upp till 50 % snabbare än traditionella byggmetoder, vilket gör det möjligt för företag att snabbt sätta upp AI-datacenter.
- Energieffektiv strömhantering: Genom att använda Vertivs avancerade strömhanteringstekniker, inklusive Trinergy UPS-system och EnergyCore litiumbatteriskåp, kan lösningen spara upp till 40 % mer utrymme än äldre system och samtidigt förbättra pålitligheten och energieffektiviteten.
- Dynamisk arbetsbelastningshantering: Denna design stöder dynamiska arbetsbelastningar, vilket gör det möjligt att optimera driften av GPU-intensive AI-applikationer, och hanterar belastningen via litiumjonbatterier och nästa generations UPS-system.
- Öppen infrastruktur och flexibilitet: Lösningen inkluderar alternativ för Open Compute Project (OCP)-inspirerade system, som ger extra flexibilitet för företag som vill anpassa sin infrastruktur.
Fördelar för kunder:
- Snabbare och mer flexibel distribution: Lösningen gör det möjligt att bygga och driva AI-datacenter snabbare och med större flexibilitet för att hantera förändrade arbetsbelastningar och tekniska krav.
- Kostnadseffektivitet: Genom att minska kyl- och strömhanteringskostnader samt optimera utrymmet, kan denna arkitektur hjälpa företag att minska de totala driftskostnaderna.
- Global skala och support: Vertiv, med sina 4 000 fältserviceingenjörer, erbjuder global support för att säkerställa att infrastrukturen är korrekt installerad och underhållen under hela livscykeln.
Framtida utveckling:
Vertivs och NVIDIAs samarbete banar väg för fortsatt teknisk utveckling inom AI-infrastruktur. Den nya referensarkitekturen sätter en färdplan för att hantera den ökande efterfrågan på AI-drivna datacenter och gör det möjligt för företag att bygga mer effektiva och hållbara system för accelererad datoranvändning.