[KRÖNIKA] Företagens satsningar på att utveckla och distribuera generativ AI accelererar för varje dag som går.
Det innebär att energikonsumtionen ökar, vilket i sin tur kan påverka hållbarheten negativt om energikonsumtionen inte begränsas, skriver Lenovos Mike Creutzer.
Utvecklingen av GenAI-modeller är oerhört energikrävande. Det leder inte bara till en exponentiell ökning av den el som används för att driva AI-maskineriet, utan också till en ökning av mängden servrar som krävs för att hantera all data som genereras. Och då generativ AI behöver mer energikrävande hårdvara ökar också datacentrens efterfrågan på nya sätt att hantera värmen från de grafikprocessorer (GPU:er) som är motorn i den generativa AI-revolutionen.
Chat GPT äter mer energi än Google
En rapport från Goldman Sachs avslöjar att varje fråga i ChatGPT kräver nästan 10 gånger så mycket elektricitet som en Googlesökning. Detta ökar energibehovet i alla datacenter och innebär att vi måste bli smartare kring energianvändningen – särskilt när det gäller den energi som används för kylning av datacenter, för här finns det mycket el att spara.
Vanlig luftkylning, som kräver mycket el, räcker inte längre. Och i en tid då alla företag måste prioritera och rapportera in data kring hållbarhet, kan vätskekylning, som kan minska energiförbrukningen med upp till 40 procent, vara ett enkelt sätt att minska koldioxidutsläppen.
Högre effekttäthet kräver mer energi
De energiintensiva GPU:erna (Graphics Processing Unit) som driver AI-plattformar kräver fem till tio gånger mer energi än CPU:erna (Central Processing Unit), på grund av det större antalet transistorer. Idag finns också nya kostnadseffektiva funktioner som 3D-silicon stacking, som gör det möjligt för GPU-tillverkare att placera fler komponenter på mindre plats. Detta ökar återigen effekttätheten, vilket innebär att datacenter behöver mer el samtidigt som de genererar mer värme.
Som ett resultat av detta är luftkylning inte längre tillräckligt för driften av AI. Det handlar inte bara om kraften i komponenterna, utan även om komponenternas täthet i datacentret. Om inte servrarna blir tre gånger större än tidigare krävs en mer effektiv värmeavledning för att hantera den ökande värme som alstras i datacentren.
Vätskekylning växer i popularitet
Vätskekylning blir alltmer populärt. Denna trend märks bland annat bland colocation-datacenter (samlokalisering). De flesta företag har varken plats eller resurser till egna datacenter som klarar av de höga mängder el som generativ AI kräver. Därför måste de placera sina servrar i ett colocation-datacenter, med tjänsteleverantörer som kan förse dem med den teknik och effekttäthet som krävs.
Dessa tjänsteleverantörer håller nu på att övergå till nya GPU-arkitekturer och till vätskekylning.
Skillnaden med vätskekylning
På Lenovo har vi mer än tio års erfarenhet av vätskekylning, och vårt Neptune-system använder rent vatten med intag i rumstemperatur så att kunderna inte behöver kyla vattnet. Vätskekylning kyler så väl enskilda servrar som hela datacentret. Genom att gå över från en server med fläktar till en server med vätskekylning kan företag spara in rejält på energiförbrukningen.
Men detta gäller bara på enhetsnivå, medan perimeterkylning, det vill säga att avlägsna värme från datacentret, kräver höga mängder energi för att kyla och avlägsna rumsvärmen. Det kan innebära att endast två tredjedelar av den energi som datacentret använder går till databehandling, den uppgift som datacentret är utformat för att utföra. Resten av energin används för att hålla datacentret svalt.
PUE (Power Usage Effectiveness) är ett mått på hur effektiva datacenter är. Man tar den effekt som krävs för att driva hela datacentret, inklusive kylsystemen, och dividerar den med IT-utrustningens effektbehov. Vissa av de datacenter som är optimerade med vätskekylning har en PUE på 1,1, och vissa till och med 1,04, vilket innebär en mycket liten mängd marginalenergi. Och då har vi inte räknat med möjligheten att ta den varma vätskan som kommer ut ur racken och återanvända värmen, som att värma upp byggnaden på vintern eller till och med intilliggande byggnader, vilket vissa datacenter gör redan i dag.
Densitet är också mycket viktigt. Vätskekylning gör att vi kan packa in mycket utrustning i en hög rackdensitet. Med vätskekylning kan vi fylla dessa rack och använda mindre utrymme i datacentret totalt sett, vilket kommer att vara en mycket viktig funktion för de konstant ökande effektbehoven som AI kräver.
Vägen mot renare datacenter
Vi vet alla att energikraven för generativ AI inte kommer att bli mindre, och vätskekylda system erbjuder ett sätt att leverera den energitäthet som tekniken kräver. Det gör det möjligt för företag att minska energianvändningen, och för datacenter att rymma det antal GPU:er som krävs för att driva morgondagens innovation.
När det gäller de enorma energibehoven hos generativ AI kan vi inte längre förlita oss på luftkylning. Men med bland annat de stora colocation-datacentren och andra företag som är medvetna om sin energiförbrukning i bräschen, kan vi tillsammans ta ansvar för den ökande energiförbrukning AI genererar. Och på så vis kan ny teknik göda ny teknik – behoven av lägre energiåtgång i datacentren driver på ny innovation och nya sätt att sänka vår energiförbrukning.
Vägen mot renare datacenter är därmed ljus, om vi låter innovation lysa upp vår resa.
Mike Creutzer, Nordenchef för Infrastructure Solutions Group, Lenovo