CAP Chip: ZutaCore's HyperCool plaat. Foto door Gal Baraf via ISRAEL21c
Hoe cool kunstmatige intelligentie ook mag lijken, het is eigenlijk behoorlijk heet. Echt, fysiek heet, schrijft Zachy Hennessey in dit interessante artikel van ISRAEL21c.
Of het nu gaat om het maken van content, het beheren van big data of het automatisch aanvullen van een e-mail die u net naar een collega hebt gestuurd: AI heeft de afgelopen jaren een grote impact gehad op het dagelijks leven van de gemiddelde burger.
Maar het heeft ook een grote impact op het milieu , en dan nog eens op geen enkele positieve manier.
Er zijn rapporten verschenen die AI aanwijzen als een grote grondstoffenvreter. Volgens een recente schatting van het World Economic Forum neemt het energieverbruik dat verband houdt met AI jaarlijks toe met een snelheid variërend van 26% tot 36%. Tegen 2028 zal dit verbruik naar verwachting gelijk zijn aan dat van een klein land als IJsland.
En dit probleem is slechts een microkosmos van een veel groter probleem dat het internet in het algemeen met zich meebrengt.
Maar voordat we daarop ingaan, moeten we eerst eens nader kijken naar de milieukosten van AI.
Een korte opmerking over broeikasgassen
Dit artikel gaat niet over broeikasgasemissies , maar vooral over het elektriciteitsverbruik van AI-chips en de datacenters waarin ze zich bevinden. Hoewel de twee statistieken inherent met elkaar verbonden zijn, is het toch een belangrijk onderscheid om te maken.
De reden dat we hier niet ingaan op statistieken en gegevens over de CO2-uitstoot van AI, is omdat de rapporten over dat getal nogal uiteenlopen.
Het is veel eenvoudiger om te kijken naar de harde elektriciteitsinput (hoeveel watt gaat er naar AI) in plaats van te raden welke van die elektriciteitsbronnen hernieuwbaar zijn, welke niet, welke meer koolstofdioxide uitstoten, etc.
Er wordt beweerd dat de datacenterindustrie verantwoordelijk is voor 2,5% tot 3,7% van de wereldwijde CO2-uitstoot , en daarmee een grotere vervuiler is dan de luchtvaartindustrie (die ongeveer 2,5% vertegenwoordigt ).
Dat is waarschijnlijk waar, maar het is lastig om te berekenen hoeveel van die ‘datacenter-CO2-taart’ specifiek door AI wordt gebakken, en de statistieken die door verschillende bronnen worden gepubliceerd, spreken elkaar vaak tegen.
Kortom, het elektriciteitsverbruik van AI is direct gekoppeld aan de CO2-uitstoot ervan. De impact ervan varieert echter aanzienlijk, afhankelijk van de gebruikte energiebronnen en de efficiëntie van de betrokken systemen.
Er blijft dus een vraagteken hangen bij de uiteindelijke klimaatimpact ten opzichte van de CO2-uitstoot. Maar door te kijken naar de benodigde elektriciteit, kunnen we een redelijk goed beeld krijgen van de uiteindelijke emissies.
Nog steeds bij mij? Geweldig.
Wat is het grote idee?
Als u niet weet wat een datacenter is, stel u dan een kleine bijenkorf voor, gevuld met bijen (in deze metafoor spelen ze de rol van dataservers).
De bijen zijn druk bezig met hun werk, maar ze hebben een plek nodig waar ze kunnen rondhangen, hun honing kunnen bewaren en kunnen dansen. De bijenkorf fungeert als een faciliteit die de benodigde infrastructuur biedt om dat werk te kunnen doen.
Stel je nu voor dat de bijenkorf 100.000 vierkante meter groot is. Dat is een datacenter.
Hoewel er speciale AI-datacenters zijn die speciaal zijn ontworpen en geoptimaliseerd voor AI-werklasten, installeren veel bedrijven ook AI-chips in hun traditionele datacenters.
Hoe dan ook, de toenemende nadruk op AI binnen de datacentersector vereist uiteindelijk een groter gebruik van middelen.
Moderne datacentra en de AI-chips die erin zitten, hebben iets gemeen met George Clooney na een sapkuur van 72 uur: ze hebben het heel warm en ze hebben heel veel honger.
Elke chip — en bij uitbreiding elke server en elk datacenter — verbruikt een flinke hoeveelheid stroom. Dat stroomverbruik kan worden onderverdeeld in twee hoofdcategorieën: 1) het voeden van de mechanische werking van de apparatuur; 2) het koel houden van de apparatuur zodat er geen gat in de vloer smelt.
Al deze bedragen zorgen voor een torenhoge energierekening. Sommige landen zijn zelfs overgegaan tot het heropenen van kerncentrales om de situatie onder controle te houden.
Verschillende bedrijven ontwikkelen oplossingen voor de eerste categorie, waaronder Nvidia, dat de GPU's maakt waarop de meeste AI-modellen tegenwoordig draaien.
Hoewel AI-modellen zeker veel middelen opslokken tijdens het trainingsproces (hoewel het onduidelijk is hoeveel precies) , merkte Nvidia CEO Jensen Huang in een Q&A eerder deze maand op dat, zodra een AI-model is getraind, "de hoeveelheid energie die wordt gebruikt in vergelijking met de alternatieve manier van computeren veel, veel lager is."
In dezelfde trant gaat het idee rond dat het mogelijk is om de belasting (en daarmee ook de energierekening) van dataservers te verlichten door ‘AI-accelerator’-chips op individuele computers te installeren.
Met AI-versnellers kunnen AI-toepassingen efficiënt en effectief worden uitgevoerd op lokale apparaten, waardoor de prestaties worden verbeterd en de latentie wordt verminderd, terwijl zowel de bandbreedte als het totale vermogen wordt bespaard.
Hailo uit Tel Aviv , een mooi voorbeeld van een bedrijf dat actief is op dit gebied, heeft onlangs een overeenkomst gesloten om AI-versnellers te leveren voor Raspberry Pi, een van de populairste producten voor computernerds die graag hun eigen machines bouwen voor nichedoeleinden.
Naast het verbeteren en lokaal beschikbaar maken van AI-systemen, proberen bedrijven ook op een andere manier AI-berekeningen minder energieverslindend te maken: NeuReality is bijvoorbeeld een Israëlische startup die werkt aan een AI-systeemuitbreiding die de efficiëntie van bestaande GPU's en accelerators effectief verhoogt.
Uit recente tests blijkt dat wanneer het NeuReality-apparaat wordt gecombineerd met bepaalde Qualcomm-accelerators, het tot 90% kostenbesparing en 15 keer betere energie-efficiëntie kan opleveren dan AI-opstellingen die draaien op Nvidia GPU's.
Of Nvidia's bewering dat AI-berekeningen op de lange termijn goedkoper zijn, apocrief blijkt te zijn, moet nog blijken. Maar aangezien het financieel gezien gewoon slimmer is om chips te ontwikkelen die zo min mogelijk stroom verbruiken, zal het goede oude kapitalisme er waarschijnlijk voor zorgen dat Big AI zijn best zal doen om de elektriciteitsbehoefte aan de rekenkant te verminderen.
Blijf kalm, man
Dan blijft er nog koeling over.
Traditionele koeling van datacenters is sterk afhankelijk van lucht- en watergebaseerde methoden, waarbij voornamelijk gebruik wordt gemaakt van airconditioningsystemen, grote ventilatoren en vloeistofkoeling om de warmte die door servers wordt gegenereerd af te voeren.
Hoewel dit behoorlijk effectief is om oververhitting te voorkomen, zijn deze systemen notoir energie-intensief en inefficiënt: de energie die nodig is om deze koelsystemen van stroom te voorzien, is vaak gelijk aan of zelfs hoger dan de hoeveelheid energie die door de servers zelf wordt verbruikt. Het totale energieverbruik van datacenters wordt hiermee effectief verdubbeld.
Op dit punt zou ik het je vergeven als je zoiets zou denken als: "Oké, dus we smelten allemaal en de wereld vergaat voordat SkyNet het überhaupt kan overnemen, het einde?"
Ik vergeef je, maar nee.
Gelukkig voor ons werken de slimmeriken in de techwereld niet alleen aan oplossingen voor de rekenkracht die AI nodig heeft; ze bedenken ook betere manieren om het koel te houden.
Een van die bedrijven is het Israëlische ZutaCore, waarvan de koeltechnologie belooft de ecologische voetafdruk van door AI aangestuurde datacenters aanzienlijk te verkleinen.
Het vloeistofkoelsysteem van het bedrijf verwijdert efficiënt warmte van processors en servers met behulp van een tweefasen kook- en condensatieproces. Het koelt chips direct zonder water te gebruiken, wat apparatuur beschermt tegen schade.
Het systeem maakt gebruik van warm water voor condensatie, dat na gebruik in het koelproces kan worden hergebruikt voor verschillende doeleinden, zoals het verwarmen van gebouwen. Dit draagt bij aan een milieuvriendelijkere en kosten effectievere aanpak van datacenterkoeling.
Een illustratie die de koeloplossing van ZutaCore demonstreert. Screenshot van zutacore.com/solutions via ISRAEL21c
Zutacore's VP Product Shahar Belkin vat de voordelen van de oplossing samen in een simpele vergelijking. "Om het te vergelijken met de efficiëntie van traditionele koelsystemen: als het eerst één watt koeling was voor elke watt computergebruik, hebben we het nu over één watt koeling voor elke 10 watt computergebruik."
Ik ben niet zo'n wiskundige, maar dit lijkt me een behoorlijke verbetering.
Naar onszelf kijken in de spiegel
De belangrijkste conclusies uit dit artikel kunnen we in twee zinnen samenvatten:
AI verbruikt veel elektriciteit.
Bedrijven proberen het gebruik ervan te verminderen, zowel op het gebied van berekeningen als op het gebied van koeling.
In de inleiding heb ik echter gezinspeeld op een groter raadsel dat nadere aandacht verdient: AI vormt slechts een deel van de totale energie die elke seconde van de dag haastig door datacenters wordt verbruikt.
Elke online interactie, of het nu gaat om een zoekopdracht of een videostream, activeert meerdere servers in datacenters over de hele wereld, wat resulteert in een tastbaar energieverbruik.
Deze vraag naar connectiviteit zorgt ervoor dat datacenters een aanzienlijk deel van de wereldwijde elektriciteit verbruiken. Volgens prognoses kan dit percentage tegen 2030 stijgen tot 7% van het wereldwijde totaal.
Ik ga niet prekerig doen. Het internet is een ongelooflijk hulpmiddel (en trouwens ook AI), en er is duidelijk geen kans dat de moderne maatschappij zal zeggen: "Oké, ik snap het, dus minder content en minder dingen online zetten dan."
Toch is het interessant om te bedenken dat mensen vrijwel unaniem hebben besloten dat het prima is om natuurlijke hulpbronnen op te offeren om artikelen te lezen of kattenfilmpjes te kijken op TikTok. Ze zijn echter niet zo enthousiast over mensen die de wereld rondreizen in het vliegtuig.
Dat gezegd hebbende, moeten databedrijven meer hernieuwbare energiebronnen gebruiken en rapporteren hoeveel stroom ze gebruiken. Bij uitbreiding moeten overheden de verantwoordelijkheid nemen om richtlijnen op te stellen om ervoor te zorgen dat dit ook daadwerkelijk gebeurt.
Ten slotte is het van cruciaal belang om de innovatieve oplossingen te promoten die worden ontwikkeld door bedrijven als ZutaCore. Deze stellen ons in staat om de vooruitgang van het digitale tijdperk te bevorderen zonder de planeet te veranderen in een onbewoonbare, oververhitte hel.
Met een beetje geluk kunnen we het lang genoeg volhouden om de planeet te veranderen in een onbewoonbare AI-overlord-gedreven hel. Maar de servers blijven tenminste koel!
Comments