Rēne Haass, ARM ģenerāldirektors, norādīja, ka līdz 2030. gadam mākslīgajai intelektam varētu patērēt 25% ASV elektroenerģijas. Pašlaik AI datu apstrādes centri patērē 4%. Viņš uzskata, ka bez ievērojama efektivitātes palielināšanas un/vai ievērojamas valsts regulējuma pastiprināšanas pašreizējais AI attīstības virziens netiks saglabāts.
Saskaņā ar Janvāra Starptautiskās Enerģētikas aģentūras ziņojumu, kurā teikts, ka ChatGPT patērē aptuveni 2,9 Wh elektroenerģijas vienā pieprasījumā, kas ir 10 reizes vairāk nekā parastais Google meklēšanas veids. Tādējādi, ja Google pārietu uz pilnīgu AI meklēšanu, uzņēmums patērētu ne mazāk kā 11 TWh elektroenerģijas gadā, nevis pašreizējie 1 TWh.
Paziņojums tika izteikts pirms gaidāmā ASV un Japānas partnerības vienošanās par mākslīgo intelektu, kā arī jaunattīstības kontekstā, piemēram, OpenAI Sora, kuras pašreizējā versija, pēc Factorial Funds novērtējuma, pieprasa vismaz vienu NVIDIA H100 grafiskais procesorsiur, lai izveidotu piecās minūtēs video. Viens 700 W NVIDIA H100 katru gadu patērē apmēram 3740 kWh.
Amerikas Savienotās Valstis Enerģētisko informācijas pārvaldība (EIA) ziņoja, ka 2022. gadā Amerikas Savienotās Valstis ražoja 4240 TWh elektroenerģijas, no kuriem tikai 22% nāca no atjaunojamiem avotiem. Patēriņš bija 3900 TWh.
Ilgstošas attīstības jāņem vērā arī prognozējamā pieprasījuma palielināšanās no citām nozarēm un atjaunojamo un neatjaunojamo resursu patēriņa mērogi. Ņemot vērā, ka elektroenerģijas cena gandrīz divkāršojusies kopš 1990. gada, lielākas regulēšanas šķiet pamatotas.
Rēne Haass izteica cerību, ka starptautiskā partnerība starp Japānu un ASV palīdzēs samazināt šīs ārkārtīgi augstās jaudas novērtējumus. Tomēr korporatīvā godkāre un pieprasījums pēc skaitļošanas jaudas ir arī starptautiski parādības.
Avots: Tom's Hardware
Komentāri (0)
Šobrīd nav neviena komentāra