DXHEROES Logo
Co děláme

/

#ai

Ekologický dopad AI: Co se děje v pozadí?

Délka: 

12 min

Publikováno: 

9. června 2025

Pokaždé, když využíváme umělou inteligencí – ať pro generování či zpracování textů, obrázků, či videí – spouštíme v pozadí energeticky náročné procesy. Ty mají dopad na spotřebu elektřiny, a dokonce i vody, které jsou využívány přímo, či nepřímo pro chod výpočetních zařízení a jejich chlazení.

Abychom mohli k AI přistupovat zodpovědněji, je nezbytné pochopit, co se děje v pozadí. Díky tomu získáme povědomí nejen o tom, že se nejedná o neomylný zdroj pravdy, ale i že má určitý dopad na životní prostředí.

Pozadí zpracování promptu

Naše interakce s AI modely má značnou závislost na zdrojích. Ale jak přesně naše posílání si zpráv s těmito modely spotřebovává elektřinu, a co víc, vodu? Odpověď leží v několika klíčových frázích a fázích:

Učení modelu

Než je model připraven generovat odpovědi, prochází náročným trénovacím procesem.

Velké jazykové modely (LLM) se učí pomocí samo-supervizovaného učení. To znamená, že modely nejsou trénovány na datech s explicitními popisky, ale učí se predikovat následující slovo na základě předchozího kontextu. Tento přístup umožňuje modelům efektivně využívat rozsáhlé nestrukturované texty.

Základní architekturou těchto modelů jsou transformery, které umožňují efektivní zpracování sekvencí a zachycení dlouhodobých závislostí v textu. Během tréninku model prochází texty, předpovídá následující slova a na základě chyb upravuje své vnitřní parametry. Tento proces probíhá na rozsáhlých datech zahrnujících texty z internetu, knih, kódu a dalších zdrojů.

Pro efektivní strojové učení jsou klíčové dvě věci: kvalitní data a jejich dostatečné množství. Díky tomu se modely učí imitovat lidskou interakci tím, že předpovídají, jaké slovo by mohlo následovat na základě předchozího kontextu, který si udržují ve své paměti, známé jako kontextové okno.

Environmentální dopad

Trénování je však náročné nejen na energie pro výpočetní techniku, ale i na vodu. Například trénování modelu GPT-3 v datových centrech společnosti Microsoft spotřebovalo přibližně 700 000 litrů pitné vody ve formě parních emisí. Toto množství vody odpovídá například spotřebě potřebné k výrobě zhruba 320 elektromobilů Tesla.

Tato spotřeba vody je také důsledkem potřeby udržovat servery v datových centrech v optimální teplotě. Chlazení se často realizuje pomocí vodních systémů, kde voda absorbuje teplo generované servery a následně se odpařuje v chladicích věžích. Tento proces je energeticky náročný, což vyvolává obavy o udržitelnost v kontextu rostoucího využívání AI.

Příklad chladících věží datového centra

Hostování modelu

Velikost velkých jazykových modelů (LLM) je určena počtem parametrů, neuronů, které lze chápat jako váhy v neuronové síti. Tyto parametry ovlivňují schopnost modelu zachytit složité jazykové vzory a vztahy. Obecně platí, že čím více parametrů model má, tím lepší je jeho schopnost porozumět a generovat přirozený jazyk.

Malé modely, například s několika jednotkami miliard parametrů, lze provozovat lokálně na počítačích. Tyto modely jsou vhodné pro aplikace, kde je důležitá bezpečnost, rychlost odezvy a nižší nároky na hardware.

Na druhé straně, největší a nejvýkonnější modely, jako je LLaMA 3.1 s 405 miliardami parametrů, vyžadují specializovaný hardware a infrastrukturu. Pro jejich provoz jsou nezbytné servery s vysokou kapacitou VRAM a výkonnými GPU. Například provoz LLaMA 3.1 v režimu fp16 (přesnost vah, floating point) vyžaduje přibližně 972 GB VRAM.

Tyto rozsáhlé modely jsou obvykle hostovány v datových centrech, které poskytují potřebný výpočetní výkon a infrastrukturu pro jejich běh. Cloudové platformy, jako je Google Cloud Platform nebo Microsoft Azure, nabízejí služby pro nasazení a správu těchto modelů, včetně optimalizace výkonu a škálovatelnosti.

Obrázek komplexu datového centra

Zpracování vstupu

Po zadání promptu je požadavek okamžitě odeslán do datového centra, kde je předán specializovanému hardwaru. Každý krok zpracování vstupu a generování výstupu velkými jazykovými modely (LLM) přispívá k celkové spotřebě energie.

  • Tokenizace – Textový vstup se rozděluje na menší jednotky zvané tokeny. Tento proces vyžaduje výpočetní výkon, ale jeho energetická náročnost je ve srovnání s dalšími kroky relativně nízká.

  • Převedení na embeddingy – Každý token je převeden na číselný vektor (embedding), který zachycuje jeho sémantický význam. Tento krok zahrnuje maticové operace a běží na specializovaném hardwaru, což přispívá k energetické spotřebě.

  • Zpracování modelem (Inference) – Embeddingy jsou dále zpracovány architekturou modelu, typicky založenou na transformerech. Tento krok je nejvíce energeticky náročný, zejména u velkých modelů s miliardami parametrů.

  • Predikce dalšího tokenu – Model vypočítává pravděpodobnosti následujících tokenů a generuje výstup. Energetická náročnost tohoto kroku závisí na délce generovaného textu a složitosti modelu. Modely s cca 7 miliardami parametrů spotřebují přibližně 3–4 Joulů na token.

  • Ovlivnění výstupu parametry – Parametry jako „teplota" mění charakter výstupu (deterministický vs. náhodný). Přímý vliv na spotřebu energie nemají, ale mohou ovlivnit délku a složitost textu, což nepřímo mění energetickou náročnost.

Náročnost výpočtů

Čím větší a složitější model, tím více energie vyžaduje. Každý krok – od tokenizace po generování výstupu – běží na specializovaném hardwaru, často na GPU jako NVIDIA H100.

Jak náročné jsou tyto výpočty?

Jedno GPU NVIDIA H100 (SXM) může mít spotřebu až 700 wattů. V datových centrech jsou tato GPU zapojena do racků, které spotřebují desítky kilowattů. Pro představu, s 700 Wh energie lze provozovat:

| Zařízení / Aktivita | Spotřeba | Doba provozu s 700 Wh | | --- | --- | --- | | NVIDIA H100 GPU (SXM) | 700 W | 1 hodina | | LED žárovka | 10 W | 70 hodin (cca 3 dny) | | Nabíjení chytrého telefonu | 15 Wh na nabití | Přibližně 46 nabití |

Tvorba tepla a chlazení

Provoz LLM generuje značné množství tepla. Datová centra proto používají pokročilé chladicí systémy, které spotřebovávají další energii a také vodu. Chlazení může tvořit až 30–40 % celkové spotřeby energie datového centra. Průměrná spotřeba vody na chlazení může dosahovat 1,8 litru na každou kWh energie. Některá datová centra tak mohou spotřebovat denně 11–19 milionů litrů vody, což odpovídá spotřebě města s 30 000–50 000 obyvateli.

Spotřeba vody a energie na jeden prompt

Jednotlivý prompt může mít nízkou spotřebu, ale při miliardách dotazů denně se kumulativní dopad významně zvyšuje. Studie University of California, Riverside uvádí, že zpracování 5–50 AI promptů spotřebuje až 0,5 litru vody (převážně na chlazení).

Inference různých modelů na kratší dotaz

Běžně platí, že reasoning modely jsou výrazně náročnější na energii než klasické modely. Je to patrné například u DeepSeeku, kde je verze V3 energeticky přibližně 8-krát úspornější než R1, podobně jako model OpenAI o3 oproti GPT-4.1. Pro detailnější srovnání energetické náročnosti doporučuji pročíst následující článek.

V obrázku níže lze pozorovat výrazně vyšší využití tokenů reasoning modelu R1 oproti klasickým modelům.

Srovnání využití tokenů modelů

Odhadovaná spotřeba energie a emisí CO₂ na jeden textový dotaz (orientační)

| Typ úlohy | Spotřeba energie / dotaz | Emise CO₂e / dotaz | Přirovnání spotřeby | | --- | --- | --- | --- | | Prosté vyhledávání | ~0,300 Wh | ~0,2 g | Napájení LED žárovky (10 W) po dobu ~2 minut | | ChatGPT (např. GPT-4o) | ~0,421 Wh | ~0,3 g | Napájení LED žárovky po dobu ~2,5–3 minut | | Energeticky náročnější modely (o3, DeepSeek) | ~23.82 Wh | ~23 g | Nabití mobilu ~3–4× |

Kumulativní dopad při 1 miliardě dotazů denně

Energie: cca 430 MWh denně, což odpovídá spotřebě přibližně 14 000 domácností (průměrná denní spotřeba 30 kWh).

Emise CO₂: přibližně 300 tun denně.

Spotřeba vody: až 10 milionů litrů denně.

Graf porovnání spotřeby vody

Graf porovnání produkce emisí

Zvyšování energetické náročnosti vyhledávání

Integrace LLM modelů (large language models) do digitálních nástrojů, se kterými se běžně setkáváme v online prostředí, se stává novodobým trendem. Většina velkých vyhledávačů – včetně Google Search – dnes využívá AI modely pro sumarizaci výsledků vyhledávání. Tento přístup však kombinuje energetickou náročnost tradičního vyhledávání s dodatečnými výpočetními náklady spojenými s provozem LLM. Více o tom si můžete přečíst zde.

Na rozdíl od alternativ jako DuckDuckGo či Ecosia Google aktuálně neumožňuje tyto AI funkce plně deaktivovat, což vede ke zvýšení energetické stopy i při jednoduchém vyhledávání.

Shrnutí

Přímý vztah mezi naším dotazem a reálnou spotřebou zdrojů ukazuje, že každá interakce s AI má svou energetickou, a tím i ekologickou cenu. Mezinárodní agentura pro energii (International Energy Agency) odhaduje, že globální spotřeba elektřiny ze strany datových center se do roku 2030 více než zdvojnásobí – na přibližně 945 terawatthodin (TWh), což je zhruba tolik, kolik dnes spotřebuje celé Japonsko.

Vzhledem k těmto nárokům se nabízí dvě otázky: jak vlastně fungují datová centra, že tak žerou energii i vodu, a co můžeme dělat abychom tuhle stopu minimalizovali?

Na první otázku, co jsou to datová centra, která jsou srdcem všech těchto procesů, a jaké konkrétní environmentální dopady s sebou jejich provoz nesou se zaměříme v další části. Na druhou otázku se pak zaměříme v posledním článku z této trilogie.


Související články

Chcete být o krok napřed?

Nenechte si utéct naše nejlepší postřehy. Žádný spam, jen praktické analýzy, pozvánky na exkluzivní eventy a shrnutí podcastů přímo do vaší schránky.

Tento web je chráněn službou reCAPTCHA a platí Zásady ochrany soukromí a Smluvní podmínky společnosti Google.