Hewlett Packard Enterprise (NYSE: HPE) tillkännagav idag en superdatorlösning för generativ AI utformad för stora företag, forskningsinstitutioner och statliga organisationer, för att accelerera AI-träning och ställa in modeller för artificiell intelligens (AI) med hjälp av privata data.
Lösningen består av en mjukvarusvit som gör det möjligt för kunder att träna och ställa in modeller och utveckla AI-applikationer.
Lösningen omfattar även vätskekylda superdatorer, accelererade beräkningar, nätverk, lagring och tjänster, som hjälper organisationer att snabbare frigöra AI-värden.
”Världens ledande företag och forskningscentra tränar och ställer in AI-modeller för att driva innovation och nå nya genombrott i forskningen, men för att göra det effektivt behöver de specialbyggda lösningar”, säger Justin Hotard, vice VD och chef för HPE, AI & Labs på Hewlett Packard Enterprise. ”För att stödja generativ AI behöver organisationer utnyttja lösningar som är hållbara och levererar den dedikerade prestandan och skalan hos en superdator för att stödja AI-modellträning. Vi är glada över att utöka vårt samarbete med NVIDIA för att erbjuda en nyckelfärdig AI-native-lösning som hjälper våra kunder att avsevärt påskynda AI-modellträning och resultat.”
Programvara för att bygga AI-applikationer, anpassa färdiga modeller samt utveckla och modifiera kod är huvudkomponenter i denna superdatorlösning för generativ AI. Programvaran är integrerad med HPE Cray-teknik för superdatorer, som är baserad på samma kraftfulla arkitektur som används i världens snabbaste superdator och drivs av NVIDIA Grace Hopper H200 Superchip. Tillsammans erbjuder denna lösning organisationer den oöverträffade skala och prestanda som krävs för stora AI- beräkningslaster, såsom Deep Learning Recommendation Model-träning (DLRM). Med hjälp av HPE Machine Learning Development Environment på detta system finjusteras Llama 2-modellen med öppen källkod på några minuter. Den avancerade superdatorkapaciteten hos HPE, med stöd av NVIDIA-teknik, förbättrar systemets prestanda.
”Generativ AI förändrar varje industriell och vetenskaplig strävan”, säger Ian Buck, vice president of Hyperscalar and HPC på NVIDIA. ”NVIDIA:s samarbete med HPE kring denna nyckelfärdiga lösning för AI-träning och simulering, som drivs av NVIDIA Grace Hopper H200 Superchip, kommer att ge kunder den prestanda som behövs för att uppnå genombrott i deras generativa AI-initiativ.”
En kraftfull integrerad AI-lösning
Superdatorlösningen för generativ AI är ett specialbyggd, integrerad, AI-native-erbjudande som inkluderade följande end-to-end-tekniker och tjänster:
- AI-/ML-accelerationsprogramvara – En svit med tre programvaruverktyg hjälper kunder att träna och ställa in AI-modeller och skapa egna AI-applikationer.
- HPE Machine Learning Development Environment är en mjukvaruplattform för maskininlärning (ML) som gör det möjligt för kunder att utveckla och distribuera AI- modeller snabbare genom att integrera med populära ML-ramverk och förenkla dataförberedelser.
- NVIDIA AI Enterprise accelererar organisationer till ledande AI med säkerhet, stabilitet, hanterbarhet och support. Den erbjuder omfattande ramverk, förtränade modeller och verktyg som effektiviserar utveckling och driftsättning av AI i produktion.
- HPE Cray Programming Environment Suite erbjuder programmerare en komplett uppsättning verktyg för utveckling, portning, felsökning och förfining av
- Utformad för skala – Baserad på HPE Cray EX2500, ett Exascale-klassat system, med branschledande NVIDIA Grace Hopper H200 Superchip, kan lösningen skala upp till tusentals grafikprocessorer (GPU) med möjlighet att dedicera nodernas fulla kapacitet för att stödja en AI-arbetslast för snabbare time-to-value. Systemet är det första med en nodkonfiguration om fyra GH200
- Ett nätverk av AI i realtid – HPE Slingshot Interconnect erbjuder ett öppet, Ethernet-baserat högprestandanätverk som är utformat för att stödja arbetslaster i Exascale-klassen. Baserat på HPE Cray-teknik ökade denna anpassningsbara sammankoppling prestandan för hela systemet genom att möjliggöra nätverk med extremt hög nätverkshastighet.
- Nyckelfärdig enkelhet – Lösningen kompletteras av HPE Complete Care Services som tillhandahåller globala specialister för konfiguration, installation och support under hela livscykeln för att förenkla införandet av
Framtiden för superdatorer och AI kommer att vara mer hållbar
År 2028 beräknas tillväxten av AI-arbetsbelastningar behöva cirka 20 gigawatt i datacenter. Kunder kommer att kräva lösningar som levererar en ny nivå av energieffektivitet för att minimera effekterna av deras koldioxidavtryck. Energieffektivitet är kärnan i HPE:s datorinitiativ som levererar lösningar med vätskekylning som kan ge upp till 20 procent prestanda per kilowatt jämfört med luftkylda lösningar och leverera 15 procent lägre strömförbrukning.
Idag levererar HPE majoriteten av världens 10 mest effektiva superdatorer med direkt vätskeskylning (DLC) som ingår i superdatorlösningen för generativ AI, för att effektivt kyla system och samtidigt sänka energiförbrukningen för beräkningsintensiva applikationer. HPE har en unik position för att hjälpa organisationer att frigöra den mest kraftfulla beräkningstekniken för att driva sina AI-mål framåt och samtidigt bidra till att minska deras energianvändning.