Budoucnost výpočetního výkonu pro umělou inteligenci
- Vít Krešňák
- před 1 dnem
- Minut čtení: 17
Výhled na příštích 10 let
Umělá inteligence (AI) zažívá bouřlivý rozvoj a spolu s ním rostou i nároky na výpočetní výkon. Co nás čeká v horizontu deseti let? Tento článek přehledně popisuje očekávaný vývoj dostupnosti výpočetních zdrojů, pokroky v hardware (od GPU přes specializované AI čipy po kvantové počítače), rostoucí požadavky velkých jazykových modelů a nástup decentralizovaných přístupů jako edge computing či federované učení. Zamýšlí se také nad širšími dopady této evoluce – ekonomickými, ekologickými, společenskými i geopolitickými.
Rostoucí hlad po výpočetním výkonu AI
Poptávka po výpočetním výkonu pro AI roste exponenciálním tempem. Zatímco dříve (před nástupem hlubokého učení) se potřebný výpočetní výkon zdvojnásobil zhruba jednou za 2 roky, v poslední dekádě se zdvojnásobuje během několika málo měsícůainowinstitute.org. To znamená, že každých 6–10 měsíců se hranice možného posouvá – modely mají více parametrů, trénují se na větších datech a vyžadují násobně více operací. Tento trend zřejmě potrvá: do roku 2030 by mohlo být technicky možné trénovat AI modely tisíckrát až desettisíckrát výkonnější, než jsou dnešní – tedy takový skok, jako je rozdíl mezi jednoduchým modelem GPT-2 a dnešním GPT-4epoch.ai. Je však otázkou, zda takové tempo udržíme vzhledem k fyzickým a ekonomickým limitům.
Již nyní datacentra po celém světě expandují, aby uspokojila hlad AI po výpočtech. Odhaduje se, že celosvětová spotřeba elektřiny datovými centry se do roku 2030 více než zdvojnásobí a právě AI bude hlavním motorem tohoto růstutheguardian.com. Specializovaná „AI datacentra“ určená pro trénování a provoz velkých modelů by mohla mít spotřebu až čtyřikrát vyšší než dnestheguardian.com. Pro představu – koncem desetiletí by zpracování dat (hlavně pro AI) mohlo jen v USA spolykat více elektřiny než celá tamní výroba oceli, cementu a chemikálií dohromadytheguardian.com. Tato čísla ilustrují, jak enormní energetický a infrastrukturní apetýt AI má.
Vedle elektřiny jde i o samotnou výpočetní kapacitu. Studie ukazují, že globální kapacita výpočetních center pro AI musí v příštích letech dramaticky vzrůst, jinak hrozí „výkonový deficit“. Podle odhadů by celkový potřebný výkon datacenter pro AI mohl do roku 2030 dosáhnout kolem 170–220 gigawattů (GW) oproti asi 60 GW v roce 2023mckinsey.commckinsey.com. Jinými slovy – za necelou dekádu bude třeba kapacitu datových center zhruba ztrojnásobit, možná i více. To znamená výstavbu obrovského množství nových serveroven, cloudových farem a „superpočítačových továren“. Například v Evropě se již plánuje vybudovat několik tzv. AI gigatováren – špičkových center s výkonem přes 100 tisíc AI procesorů (dnešní nejlepší centra jich mají kolem 25 tisíc) – aby EU dohnala náskok USA a Čínytheguardian.com. Každá taková „gigatovárna“ za miliardy eur bude nesmírně náročná na elektřinu a chlazení, proto se počítá s maximálním využitím obnovitelných zdrojů energie a recyklací chladicí vodytheguardian.com.
Google datové centrum v Oregonu (USA) – obří komplex serverů, který zajišťuje cloudové služby. Do roku 2030 mají podobná centra po světě spotřebovávat více než dvojnásobek současné elektřiny a budou klíčová pro provoz pokročilé AItheguardian.com.
Vývoj hardware: GPU, specializované čipy a kvantové počítače
Tak enormní růst by nebyl možný bez neustálého pokroku na poli hardware. V uplynulých letech se stal symbolem AI revoluce grafický procesor GPU – původně určený pro vykreslování grafiky, ale mimořádně výkonný v masivně paralelních výpočtech. Moderní GPU (jako např. Nvidia H100) obsahují desítky miliard tranzistorů a dokáží zpracovat triliony operací za sekundu. Techničtí lídři jako Nvidia, AMD či Google proto každou generaci posouvají laťku – zvyšují počet jader, paměťovou propustnost i energetickou efektivitu. Podle prognóz poroste trh AI čipů mezi lety 2024 a 2030 o více než 30 % ročněnextmsc.com a do konce dekády by mohl dosáhnout hodnoty stovek miliard dolarů. To zahrnuje nejen GPU, ale i další specializované akcelerátory AI.
Velcí hráči totiž vyvíjejí vlastní AI čipy šité na míru svým potřebám. Google od roku 2015 nasazuje své TPU (Tensor Processing Units) – čipy navržené čistě pro strojové učení. Amazon využívá v cloudu čipy Inferentia a Trainium pro urychlení AI služeb. Startupy jako Cerebras vytvořily dokonce „wafer-scale“ procesory – obří čipy o velikosti celého waferu křemíku – s cílem poskytnout jediné zařízení s extrémním výkonem pro trénování neuronových sítí. Také mobilní zařízení mají nyní integrované neurální procesory (NPU) pro lokální AI výpočty. V příštích letech očekáváme další architektonické inovace: čipy s 3D stohováním vrstev, rychlejší propojovací sběrnice, využití fotoniky (optických prvků) k přenosu dat uvnitř čipu nebo neurálně napodobivé čipy (neuromorfní), které fungují spíše jako lidský mozek a slibují vyšší efektivitu.
Zatímco klasické křemíkové čipy dominují, na obzoru je i kvantová výpočetní technika. Kvantové počítače využívají principy kvantové fyziky a pracují s qubity, které mohou představovat více stavů najednou. Teoreticky by mohly určitými typy výpočtů prolomit hranice, na které narazí i ta největší klasická datacentra. V horizontu 10 let se však neočekává, že by kvantové stroje zcela nahradily konvenční počítání – spíše se stanou doplňkem pro speciální úlohy. Odhady hovoří o tom, že do roku 2030 bude na světě jen kolem 5 000 kvantových počítačůmitsloan.mit.edu, převážně v laboratořích a výzkumných centrech. Plně univerzální a spolehlivý kvantový počítač (s dostatečným počtem tzv. logických qubitů, opravujících chyby) by mohl být k dispozici nejdříve okolo roku 2035mitsloan.mit.edu. Přesto se již dnes experimentuje s tzv. kvantovým strojovým učením – kombinací kvantových algoritmů a AI, což by v některých oblastech (např. optimalizace, kryptografie nebo simulace molekul) mohlo přinést průlom. Výrobci jako IBM, Google či startupy (IonQ, D-Wave aj.) postupně zvyšují počet qubitů a kvalitu kvantových procesorů. Je možné, že v příští dekádě uvidíme první praktické nasazení kvantové výpočetní síly v AI – například pro zrychlení trénování určitých modelů nebo generování šifrovaných dat. Ve větším měřítku ale budou i nadále hlavním tahounem AI pokroku výkonné „klasické“ superpočítače s tisíci propojenými GPU a specializovanými čipy.
Moderní kvantový počítač (supravodivý procesor v chlazeném kryostatu). Kvantové stroje by mohly v některých úlohách překonat běžné počítače, ale do roku 2035 zřejmě nepůjde o mainstreamovou technologii. Firmy jako IBM a Google však již testují kvantové čipy pro specializované využití v AI.mitsloan.mit.edu
Nároky velkých jazykových modelů (LLM)
Zvláštní kapitolou příběhu o výpočetním výkonu jsou velké jazykové modely (LLM) typu GPT, které stojí za fenomény jako ChatGPT. Jejich schopnosti rostou s velikostí – čím více parametrů (váh) model má a čím na větším objemu dat se natrénuje, tím lepších výsledků obvykle dosahuje. Tento „hlad po výpočtu“ je enormní. Například model GPT-2 z roku 2019 měl 1,5 miliardy parametrů, zatímco GPT-3 (2020) už 175 miliard a pro trénink GPT-3 bylo třeba výkonu v řádu exaFLOPs (10^18 operací) – to znamená nasazení tisíců GPU po dobu několika týdnů. Nejnovější GPT-4 (2023) má odhadem biliony parametrů a přesné detaily OpenAI tají, ale víme, že jeho vývoj stál desítky milionů dolarů právě na výpočetní infrastruktuře. Výzkumníci zkrátka zjistili, že větší model = chytřejší model, a tak došlo v posledních letech k závodům ve zvyšování velikosti.
Tato cesta ale naráží na limity. Počet parametrů a potřebný výpočet nemůže růst donekonečna, jinak by trénování trvalo roky a spotřebovalo nepředstavitelné množství energie. Předpokládá se sice, že do roku 2030 budou špičkové AI modely opět řádově větší (možná tak daleko nad GPT-4, jako je GPT-4 nad GPT-2epoch.ai), ale současně bude nutné hledat chytřejší cesty. Jednou z nich je algoritmická efektivita – nové techniky trénování, které dosáhnou stejného výkonu s méně výpočty. Již dnes vidíme trendy jako modelová distilace (velký model naučí menší model, který je skoro tak dobrý, ale rychlejší) nebo efektivnější architektury neuronových sítí. Také se zlepšuje optimalizace software – knihovny pro AI umí lépe využít hardware, paralelizovat úlohy atd.
Další výzvou je dostupnost dat. LLM potřebují obrovská textová data z internetu; některé analýzy naznačují, že do pár let narazíme na strop – modely prostě „přečtou“ všechen relevantní text, který na světě je. Bude tedy třeba více využívat multimodální data (obrázky, video, audio) a také synteticky generovaná data (AI si bude částečně vytvářet tréninkové příklady sama). To ovšem opět zvýší nároky na výpočet, protože generování dat znamená spouštět další modely navíchireawriter.ushireawriter.us.
Samotné provozování LLM (inference) je kapitolou samo o sobě. U služeb typu ChatGPT musí obří model běžet na specializovaném serveru (nebo více serverech) a odpovídat uživatelům v reálném čase. Při milionech dotazů denně to znamená udržovat v chodu flotilu výkonných GPU 24/7. Každý dotaz na AI model stojí zlomek centu, ale v součtu to představuje značné náklady. I zde se proto inovuje – nasazují se rychlejší čipy pro inferenci a pracuje se na zmenšených verzích modelů, které zvládnou obsloužit požadavky efektivněji. Přesto se očekává, že s rozšířením AI asistentů, překladačů, generátorů obsahu a dalších LLM aplikací poroste i celkový výpočetní výkon potřebný pro inferenci (nasazení) v terénu. Podle některých prognóz se do roku 2030 přesune 60–70 % AI zátěže do režimu real-time inferencí – tedy použití vytrénovaných modelů v reálném čase při praktických úloháchreddit.comverizon.com. To bude vyžadovat nový přístup k infrastruktuře, aby modely běžely co nejblíže uživatelům a s minimální latencí (viz dále edge computing).
Decentralizace: AI na okraji sítě (edge) a federované učení
Dosud byla hlavní cesta „více výkonu pro AI“ ve znamení centralizace – obří datová centra plná serverů, kam putují data i požadavky od uživatelů z celého světa. Nyní se však stále více prosazuje doplňkový přístup: decentralizace výpočtů směrem k okrajům sítě, blíže k uživatelům či zařízení, kde data vznikají. Tento koncept zahrnuje edge computing, AI on-device (AI přímo v koncových zařízeních) a federované učení.
Edge computing znamená zpracovávat data a provozovat AI co nejblíže zdroji – například přímo v mobilním telefonu, chytrém senzoru nebo lokálním mini-datacentru v rámci města. Výhody jsou mnohé: nižší latence (odezva), protože se nemusí vše posílat na vzdálený server; menší zatížení sítě (nepřenáší se tolik dat do cloudu); a také lepší soukromí, jelikož citlivá data mohou zůstat na místě a neputují přes internet. Už dnes máme AI funkce v telefonech (např. rozpoznávání obličeje, hlasoví asistenti) fungující offline. V horizontu 10 let se očekává, že značná část AI úloh poběží na edge – ať už to budou autonomní vozidla plná senzorů a palubních AI systémů, zdravotnické přístroje monitorující pacienty v reálném čase, nebo třeba chytré domácnosti, které vyhodnocují video z kamer pomocí vestavěných AI čipů. Odhaduje se, že trh tzv. edge AI poroste tempem ~20 % ročně a do roku 2030 dosáhne globálně hodnoty přes 150 miliard dolarůstlpartners.com.
Spolu s tím se rozvíjí i federované učení – způsob trénování modelů, kdy data zůstávají u zdroje a do světa putují jen agregované modelové aktualizace. Představme si například, že stovky nemocnic chtějí společně natrénovat AI na predikci určité nemoci, ale nemohou si přímo sdílet pacientská data (kvůli soukromí). Federované učení umožní, aby každá nemocnice trénovala model na svých lokálních datech a poslala centrále pouze „váhové změny“ modelu; centrála tyto změny zprůměruje a aktualizovaný model pošle zpět všem. Výsledkem je globální model natrénovaný kolaborativně, aniž by jediný citlivý záznam opustil nemocnici. Tento přístup popularizoval Google u mobilních telefonů (pro prediktivní psaní na klávesnici Gboard apod.) a do budoucna najde využití všude tam, kde je důležitá ochrana dat a zároveň potřeba trénovat na širokém vzorku. Za 10 let by federated learning mohl být běžnou součástí AI ekosystému – například pro chytré asistenty, kteří se učí z používání různých lidí, aniž by jejich data sdíleli, nebo v průmyslu, kde stroje v továrnách společně zlepšují modely prediktivní údržby bez odhalení citlivých provozních informací.
Dekádou decentralizace nás provede i rozvoj sítí: rozšiřující se 5G (a nástup 6G) umožní rychlou komunikaci mezi edge zařízeními a zároveň s cloudem. Cloud a edge se tak stanou dvěma komplementárními pilíři AI infrastruktury. Velké modely se zřejmě budou trénovat nadále v cloudu (tam je soustředěn výkon), ale jejich nasazení (inference) bude často distribuováno k okrajům, blízko uživatelům. Tento hybridní model by měl zvládnout dramatický nárůst požadavků v reálném čase, který se očekáváreddit.com. Do roku 2030 tedy pravděpodobně uvidíme, že AI je všude kolem nás – nejen v neviditelných datacentrech, ale i v běžných přístrojích a aplikacích, aniž bychom museli neustále komunikovat s centrálním serverem.
Ekonomické dopady: mezi startupy a technologickými giganty
Rozmach AI výpočtů bude mít zásadní ekonomické důsledky. Na jedné straně stojí technologičtí giganti a bohaté země, kteří masivně investují do superpočítačů, cloudových platforem a vývoje specializovaných čipů. Tito lídři (Google, Microsoft, Amazon, Meta a další) mají finanční i technické zdroje k budování obří infrastruktury, takže dnes dominují v trénování nejpokročilejších modelůainowinstitute.org. Například vytrénování modelu typu GPT-3 stálo miliony dolarů – náklady, které si menší hráč nemůže dovolit. Hrozí tedy, že se prohloubí propast mezi velkými a malými firmami: špičkové modely a AI schopnosti by zůstaly v rukou úzké skupiny korporací, zatímco startupy a akademické týmy by na ně nedosáhly.
Na druhé straně ale AI otevírá dveře i novým firmám a odvětvím. Vzniká spousta specializovaných startupů, které se zaměřují třeba na vývoj úspornějších algoritmů, návrh nových čipů, optimalizaci datacenter nebo poskytování AI as-a-service (pronájmu modelů přes API). Tyto inovace mohou snížit bariéru vstupu – například díky open-source modelům a cloudovým službám dnes i malá firma může nasadit slušnou AI bez toho, aby sama vlastnila datacentrum. Do budoucna se očekává, že AI se stane komoditní technologií, podobně jako byl nástup internetu či elektřiny: základní AI funkce (rozpoznání řeči, vidění, překlad, generování textu) budou dostupné široce a levně, což umožní jejich integraci do mnoha oborů. To může podnítit vznik nových odvětví – od personalizované medicíny, přes virtuální asistenty a vzdělávací platformy, po kreativní průmysl využívající generativní AI.
Celkově by umělá inteligence mohla do světové ekonomiky přidat biliony dolarů. Například odhady McKinsey uvádějí potenciální přínos AI až kolem 4 bilionů USD ročněweforum.org. Zároveň ale dojde k přeuspořádání trhu práce. Některá pracovní místa zaniknou či se změní vlivem automatizace – rutinní administrativní činnosti, zákaznická podpora, překladatelství a další obory mohou být z části nahrazeny AI. Naopak poroste poptávka po specialistech na data, strojové učení, vývojáře AI systémů, ale také techniky pro obsluhu datacenter či inženýry energetických sítí (protože datacentra musí být napájena a chlazena). Malé firmy budou moci využít AI ke zvýšení produktivity – studie uvádějí, že automatizace pomocí AI může zvednout produktivitu malých podniků až o desítky procentorionpolicy.org. Pokud se AI nástroje stanou uživatelsky přívětivými a dostupnými (například formou levných předplatných cloudové AI), mohou demokratizovat inovace, protože i startup s pár lidmi bude mít k dispozici „chytrého pomocníka“ pro marketing, zákaznický servis, návrh produktů apod.
Bude však klíčové zajistit férový přístup k těmto zdrojům. V opačném případě by se mohlo stát, že bohaté korporace budou utíkat mílovými kroky, zatímco malé podniky a rozvojové ekonomiky zůstanou pozadu – čímž by se prohloubila ekonomická nerovnost. Některé vlády a organizace proto volají po otevřených modelech a veřejné infrastruktuře: např. zřízení národních superpočítačů dostupných výzkumníkům a firmám, podpora open-source AI projektů či dokonce úvahy o „právu na výpočetní výkon“ (podobně jako je právo na přístup k internetu)medium.com. Do roku 2035 uvidíme, jak se tato situace vyvine – zda AI posílí zejména technologické giganty, nebo se jí podaří pohánět inkluzivní ekonomický růst napříč společností.
Ekologické výzvy a udržitelná AI
S rostoucím výpočetním výkonem pro AI přichází i ekologická stopa. Již nyní mají velké AI modely a datacentra citelný dopad na spotřebu energie a emise skleníkových plynů. Jak jsme zmínili, datacentra pohánějící AI by mohla do 5–10 let spotřebovávat dvojnásobek až čtyřnásobek dnešní elektřinytheguardian.com. To samozřejmě znamená i významné emise CO₂, pokud ta elektřina nepochází z bezemisních zdrojů. Odhaduje se, že trénování jediného špičkového modelu jako GPT-3 mohlo vyprodukovat kolem 500 tun CO₂aiaaic.org – což odpovídá ročním emisím stovky osobních aut. Každý dotaz položený AI modelu sice představuje jen pár gramů CO₂, ale v součtu milionů požadavků se i provoz jako ChatGPT nasčítá na tisíce tun ročně. Kromě uhlíkové stopy je tu i spotřeba vody pro chlazení serverů – jedna analýza přirovnala zpracování jednoho dotazu ChatGPT k „vypaření láhve vody“ nutné k uchlazení potřebného výpočetního výkonuainowinstitute.org. Dalším faktorem je samotná výroba hardware: čipy jsou energeticky a materiálově náročné na výrobu a například největší výrobce TSMC spotřebuje téměř 5 % veškeré elektřiny Tchaj-wanuainowinstitute.org. Produkce specializovaných GPU akcelerátorů pro AI podle analýz výrazně zvýší emise z polovodičového průmyslu – mezi roky 2024 a 2030 se očekává až 16násobný nárůst emisí CO₂ spojených s výrobou AI čipůtechinsights.comtechinsights.com.
Tato čísla vzbuzují obavy, zda hon za výkonnější AI nekoliduje s cíli udržitelnosti a bojem proti klimatickým změnám. Dobrou zprávou je, že si toho začínají být vědomi jak vědci, tak firmy. Prosazuje se koncept „Green AI“, tedy vývoj, který bere v potaz energetickou efektivitu a uhlíkovou stopu. Například výzkumníci hledají efektivnější algoritmy, které by dosáhly stejných výsledků s menším modelem nebo s kratším trénováním. Již dnes existují modely, které jsou lépe vyladěné na množství trénovacích dat – ukázalo se, že ne vždy je nutné model neúměrně zvětšovat, ale často stačí lépe využít data (tzv. „Chinchilla“ strategie ukázala, že menší model natrénovaný na více datech může překonat větší model trénovaný na méně datech). Takové přístupy mohou ušetřit desítky procent výpočetní práce, a tím i energie.
Velcí cloudoví poskytovatelé se zase zavazují k používání obnovitelné energie pro svá datacentra. Společnosti jako Google či Microsoft oznámily cíle do roku 2030 provozovat datacentra zcela na bezuhlíkové energii (tj. 24/7 z obnovitelných zdrojů). Také se zlepšuje účinnost chlazení – moderní datacentra využívají přirozeného chlazení vzduchem, cirkulace vody a některá jsou stavěna v chladnějších klimatických podmínkách (nebo dokonce pod vodou), aby snížila potřebu klimatizace. Kromě toho se zkoumají nové materiály a postupy ve výrobě čipů, které by snížily energetickou náročnost (např. přechod na menší výrobní proces – 2nm kolem 2025 – slibuje o něco menší spotřebu na tranzistor, ačkoliv celkový počet tranzistorů dále roste).
Důležitá je i cirkularita a životní cyklus hardware: prodlužování životnosti serverů, recyklace vzácných materiálů z vysloužilých čipů a obecně lepší správa IT majetku. Některé AI úlohy navíc mohou paradoxně pomoci snižovat emise i jinde – například AI systémy pro optimalizaci spotřeby energie v budovách či v průmyslu mohou ušetřit více emisí, než kolik stojí jejich provoztheguardian.comtheguardian.com. IEA (Mezinárodní energetická agentura) ve své zprávě uvedla, že využití AI pro zefektivnění elektrických sítí, dopravy či logistiky by mohlo přinést významné úspory a vykompenzovat část spotřeby AI datacentertheguardian.com. Klíčové bude najít rovnováhu – zajistit, aby AI vývoj byl udržitelný a aby výpočetní výkon sloužil i k řešením v oblasti klimatu, nejen ke generování zábavných obrázků či textů.
Do budoucna se možná setkáme i s regulacemi v této oblasti: firmy by mohly být motivovány či nuceny uvádět „uhlíkový účet“ AI modelů, podobně jako se dnes sleduje účinnost spotřebičů. Veřejné financování superpočítačů by mohlo být podmíněno efektivitou. A už nyní zaznívají hlasy, že extrémně velké AI modely by se neměly trénovat bez rozmyslu, pokud přínos nepřeváží environmentální náklady.
Společenské dopady: přístup k AI, vzdělávání a digitální propast
AI výpočetní výkon není jen technická či ekonomická záležitost – jeho rozdělení a dostupnost má i významné společenské dopady. Pokud bude špičková AI technologie koncentrována jen v bohatých zemích a u pár korporací, může to prohloubit digitální nerovnost ve světě. Už nyní vidíme, že státy s většími investicemi do AI (např. USA, Čína) rychleji zavádějí AI do průmyslu, zdravotnictví, vzdělávání, zatímco chudší regiony zaostávají. Ekonomické rozdíly mezi zeměmi by se tak mohly dál zvětšovat, protože bohaté státy jsou lépe vybaveny na adopci AI a těží z jejích přínosů rychlejiweforum.org. Hovoří se dokonce o „AI rozdělení“ (AI divide) – novém aspektu digitální propasti, kde místo přístupu k internetu či telefonům jde o přístup k pokročilé AI.
Dostupnost výpočetního výkonu je jedním z klíčových faktorů této rovnice. Komunity, školy, startupy či výzkumníci v rozvojových zemích mohou mít horší přístup k potřebnému hardwaru a cloudovým službám, což omezuje jejich možnost využívat AI. To by mohlo vést k situaci, kdy inovace a know-how v AI budou soustředěny v několika centrech, zatímco velká část světa bude odkázána na dovoz technologií a služeb (často za drahý poplatek). Takový scénář by nebyl ideální – prohluboval by globální nerovnost a mohl by způsobit odliv talentů (mladí vědci by odcházeli tam, kde mají lepší infrastrukturu).
Řešení vidí odborníci v tom, že se bude investovat do AI infrastruktury a vzdělávání napříč světěm. To zahrnuje budování dostupných výpočetních center, podpora otevřených projektů a sdílení znalostí. Světové ekonomické fórum například zdůrazňuje nutnost zajistit přístup k nástrojům, vzdělání a infrastruktuře AI pro všechnyweforum.org, aby z AI mohli těžit lidé na celém světě, nejen ti v technologických metropolích. Iniciativy jako AI4All či UNESCO programy pro AI vzdělávání se snaží šířit AI gramotnost – učit širší veřejnost i znevýhodněné skupiny porozumět základům AI. Čím rozšířenější bude znalost AI, tím větší tlak i schopnost vznikne k tomu, aby si lidé v různých zemích dokázali budovat vlastní AI řešení, třeba i s omezenými zdroji.
Dalším společenským aspektem je vzdělávání samotné. AI modely mají potenciál stát se velmi schopnými virtuálními učiteli či asistenty ve výuce. Představme si individuálního AI tutora, který má neomezenou trpělivost, umí se přizpůsobit tempu žáka a poskytnout interaktivní výuku kdykoliv potřebuje. Do roku 2035 není nereálné, že díky dostupnějšímu výpočetnímu výkonu poběží takoví asistenti třeba přímo na školních počítačích nebo i offline v tabletech dětí v odlehlých regionech. To by mohlo demokratizovat vzdělání – kvalitní výukové pomůcky by nebyly omezeny jen na oblasti s učiteli a školami, ale dostaly by se i tam, kde je nyní nedostatek personálu. Klíčem ovšem je, aby hardware a software byl finančně dostupný. Pokud by pokročilý výukový AI systém vyžadoval drahé servery a rychlý internet, opět by to zvýhodňovalo bohatší školství. Naštěstí trend miniaturizace a edge AI naznačuje, že hodně věcí zvládnou i relativně levná zařízení.
Digitální gramotnost a AI gramotnost se stanou nezbytnou součástí vzdělávání. Společnost bude potřebovat porozumět tomu, co AI umí a neumí, jak funguje a jak ji zodpovědně využívat. To je i otázka informovanosti vs. strachu – průzkumy ukazují, že veřejnost mívá z AI smíšené pocity (část je nadšená, část obává)unesco.orgunesco.org. Šíření srozumitelných poznatků o AI (právě takových, které tento článek přináší) může pomoci zvýšit AI gramotnost a zajistit, že se lidé nebudou AI technologií bát nebo je naopak nekriticky nepřeceňovat.
A konečně, společenská otázka přístupu k AI má i kulturní a jazykový rozměr. Většina velkých modelů dnes funguje primárně v angličtině a několika světových jazycích. Aby z nich měl užitek opravdu celý svět, bude třeba zajistit jejich lokalizaci – aby stejně dobře rozuměly i menším jazykům a kulturním kontextům. To může vyžadovat dodatečné trénování (a tedy výpočetní výkon) pro každou jazykovou verzi. Do roku 2035 snad uvidíme AI asistenty plyně komunikující ve většině existujících jazyků, což by přispělo k inkluzivnějšímu digitálnímu prostředí.
Geopolitický boj o AI: data, čipy a suverenita
Výpočetní výkon pro AI se stává i strategickou geopolitickou komoditou. Státy po celém světě si uvědomují, že kdo bude mít náskok v AI, získá ekonomickou i vojenskou výhodu. To rozpoutalo jakousi novodobou „závod ve zbrojení“, i když místo zbraní jsou ve hře superpočítače, čipy a data.
Nejviditelnější je soupeření USA a Číny. Spojené státy mají v současnosti výrazný náskok ve vývoji pokročilých AI modelů i výrobě špičkových čipůtheguardian.com. Čína však investuje masivní prostředky do dohnání – buduje národní cloudová centra, podporuje domácí výrobce čipů a má k dispozici obrovské množství dat (díky populaci a relativně menším omezením soukromí). USA v reakci uvalují exportní restrikce – v roce 2022 například omezily vývoz nejvýkonnějších GPU (Nvidia A100, H100) do Číny, aby zbrzdily čínský pokrok v trénování pokročilé AI. Tento „čipový blok“ má zabránit, aby čínské firmy či armáda mohly snadno získat hardware potřebný k tvorbě konkurenceschopných modelů. Čína mezitím zrychlila vývoj vlastních alternativ a snaží se soběstačně vyrábět pokročilé polovodiče – což je technicky velmi náročné kvůli závislosti na zahraničních technologiích (litografické stroje, duševní vlastnictví architektur atd.). Následujících 10 let ukáže, zda se Číně podaří vybudovat plně domácí AI ekosystém, nebo bude nadále závislá na západních inovacích.
Evropa se ocitá trochu uprostřed – nechce zaostat, ale nemá takové jednotné investice jako USA/Čína. EU proto představila plány na zmíněné AI gigatovárny za 20 miliard €, aby posílila vlastní výpočetní kapacity a technologickou suverenitutheguardian.comtheguardian.com. Také prosazuje regulace (jako AI Act) s cílem nastavit pravidla pro využití AI, včetně aspektů bezpečnosti a etiky. Otázkou je, zda regulační přístup EU nebude pomalejší než tempo inovací jinde. Každopádně, i menší státy pochopily význam – například národní superpočítače jsou dnes budovány v zemích jako saúdská Arábie nebo Jižní Korea, často speciálně zaměřené na AI. Některé bohaté země nakupují ve velkém špičkové GPU do zásoby – v roce 2023 média informovala, že například Saúdská Arábie a Spojené arabské emiráty pořídily tisíce kusů Nvidia H100 pro vlastní AI projekty, čímž se zařadily mezi největší světové „skladníky“ AI čipůainowinstitute.org. Národní strategie mnoha zemí dnes explicitně zmiňují cíl zajistit dostatečný výpočetní výkon pro domácí výzkum a průmysl, protože závislost na cizích cloudových platformách je vnímána jako riziko.
Dalším geopolitickým aspektem je bezpečnost dat a suverenita. Když data tečou do cizích datacenter (např. evropská firma používá cloud v USA pro AI analýzu svých dat), vznikají obavy o ochranu těchto dat a závislost na cizím poskytovateli. Proto vidíme tlak na lokalizaci výpočtů – např. nařízení, aby citlivá data (veřejná správa, zdravotnictví) byla zpracovávána na území daného státu. Do budoucna to může podnítit vznik více regionálních cloudů a spolupráce mezi státy s podobnými pravidly (třeba evropský projekt Gaia-X, který chce vytvořit alternativní cloudovou infrastrukturu splňující přísné standardy).
Vojenská dimenze také nelze opomíjet. AI je využitelná v obraně – od analýzy zpravodajských dat, přes kybernetickou bezpečnost, až po autonomní drony. A opět, bez masivního výpočetního výkonu nelze pokročilé AI nasadit. Superpočítače jsou tak trochu novými strategickými zbraněmi – jejich vlastnictví může rozhodovat o schopnosti vyvinout inteligentní systémy rychleji než potenciální protivník. Mluví se o potřebě mezinárodní kontroly či dohod, aby výkonné AI nebyly zneužity (např. zákaz plně autonomních zbraní). Někteří odborníci dokonce navrhují jakési limity výpočetního výkonu pro trénink AI – obdobu jaderných odzbrojovacích smluv – ale to je zatím spíše teoretická úvaha. Jisté je, že AI a výpočetní výkon budou stále častěji tématem diplomatických jednání i potenciálních konfliktů. Už dnes lze slyšet varování, že pokud by se svět rozdělil na AI „bohatý Sever“ a AI „chudý Jih“, prohloubí to globální nespravedlnost a může to vést k napětí.
Geopolitický „boj o AI“ má tedy několik vrstev: soutěž velmocí o dominanci, úsilí menších států nezůstat pozadu, a zároveň snahu udržet AI vývoj v mezích, aby sloužil lidskosti a neohrozil ji. Deset let je v této oblasti dlouhá doba – nezbývá než doufat, že se státy poučí z minulosti a místo závodů si uvědomí, že globální výzvy (klima, pandemie,…) vyžadují globální spolupráci, kde AI může pomoci všem. K tomu je však potřeba sdílet nejen algoritmy, ale i výpočetní zdroje, nebo alespoň výsledky, které z nich plynou.
Závěrem
Během příští dekády se výpočetní výkon dostupný pro umělou inteligenci pravděpodobně násobně zvýší a umožní věci, které dnes teprve tušíme. Mohli bychom mít AI asistenty s takřka lidskými schopnostmi porozumění, modely simulující kompletní klimatický systém planety či precizní predikce v medicíně – to vše ale jen pokud dokážeme zajistit potřebné čipy, elektřinu a infrastrukturu. Výzvou bude učinit tento pokrok udržitelným a dostupným: aby nás energeticky nezruinoval, aby z něj netěžili pouze vyvolení a aby sloužil dobrým účelům. Před námi stojí úkol inovovat nejen v tom, co AI umí, ale také jakým způsobem toho dosahuje – efektivněji, zeleněji, spravedlivěji.
Budoucnost výpočetního výkonu pro AI je tedy plná příslibů, ale i otazníků. Jisté je, že se o tomto tématu bude hodně diskutovat nejen v odborných kruzích, ale i na úrovni vlád a veřejnosti. Ostatně, inspirací k napsání tohoto článku bylo i video „How AI Will Use All the Power on Earth“ z kanálu Corridor Crew (YouTube), které poutavě upozorňuje na nenasytnou energetickou žízeň dnešních AI modelů a nutnost hledat nové cesty (viz odkaz: https://www.youtube.com/watch?v=dV60XtpTomM). Uvidíme, zda za deset let budeme bilancovat éru dalšího bezbřehého růstu, nebo období, kdy lidstvo moudře zkrotilo sílu AI a nasměrovalo ji ku prospěchu všech.
Comments