Až splaskne bublina umělé inteligence, lidé konečně dostanou šanci znovu převzít kontrolu.

Až splaskne bublina umělé inteligence, lidé konečně dostanou šanci znovu převzít kontrolu.

Pokud vám umělá inteligence do roku 2025 nezměnila život, v nadcházejícím roce to téměř jistě udělá. Toto je jedno z mála předpovědí, které můžeme v tak nejistých časech s jistotou vyslovit. To neznamená, že byste měli věřit všemu přehnanému nadšení ohledně toho, co tato technologie dokáže nyní nebo by jednou mohla dosáhnout. Tato bublina nepotřebuje vaši víru – už je nafouknutá penězi ze Silicon Valley do té míry, že narušuje globální ekonomiku a živí geopolitické rivality, přetváří náš svět bez ohledu na to, zda se ty nejextravagantnější sliby umělé inteligence někdy naplní.

ChatGPT byl spuštěn před něco málo přes tři roky a rychle se stal nejrychleji rostoucí spotřebitelskou aplikací v historii. Nyní má zhruba 800 milionů týdenních uživatelů a jeho mateřská společnost OpenAI je ohodnocena přibližně na 500 miliard dolarů. Generální ředitel OpenAI Sam Altman utkal složitou – a pro některé podezřele neprůhlednou – síť dohod s dalšími hráči v oboru, aby vybudoval infrastrukturu potřebnou pro budoucnost USA poháněnou umělou inteligencí. Tyto závazky činí celkem asi 1,5 bilionu dolarů. Nejde o skutečnou hotovost, ale pro představu: kdybyste utráceli 1 dolar za sekundu, trvalo by vám 31 700 let, než byste prošli bilion dolarů.

Alphabet (mateřská společnost Googlu), Amazon, Apple, Meta (dříve Facebook) a Microsoft – který drží podíl v OpenAI ve výši 135 miliard dolarů – všichni lijí stovky miliard do stejné sázky. Bez těchto investic by americká ekonomika pravděpodobně stagnovala.

Ekonomičtí analytici a historici, kteří studovali minulá průmyslová šílenství od železnic v 19. století přes rozmach a pád dotcomů, označují umělou inteligenci za bublinu. Sám Altman řekl: „Existuje mnoho částí umělé inteligence, které jsou podle mě momentálně tak trochu bublinou.“ Přirozeně do toho nezahrnuje svou vlastní část. Zakladatel Amazonu Jeff Bezos ji také nazval bublinou – ale „dobrou“, která urychluje ekonomický pokrok. Podle tohoto pohledu dobrá bublina financuje infrastrukturu, rozšiřuje lidské znalosti a zanechává trvalé přínosy i poté, co praskne, což ospravedlňuje zkázu „malých lidí“, kteří jsou po cestě poškozeni.

Býčí nálada technologického světa je silnou směsí staromódního prodejního umění, plutokratické velkoleposti a utopické ideologie. Jejím jádrem je marketingová nabídka: současné modely umělé inteligence již v mnoha úkolech překonávají člověka. Podle tohoto uvažování stroje brzy dosáhnou „obecné inteligence“ – lidské kognitivní všestrannosti – a osvobodí nás od potřeby jakéhokoli lidského přispění. Jakmile se umělá inteligence bude umět učit sama a navrhovat své vlastní nástupce, mohla by pokročit nepředstavitelným tempem k superinteligenci.

Společnost, která dosáhne tohoto milníku, nebude mít problém splácet své dluhy. Muži, kteří tento vizionářský směr řídí – a přední evangelisté jsou výhradně muži – by byli pro vševědoucí umělou inteligenci tím, čím byli starověcí proroci pro své bohy. To je pro ně docela role. Co se stane s námi ostatními v tomto „postsapienstkém“ řádu, je trochu méně jasné.

USA nejsou jedinou velmocí, která investuje do umělé inteligence, takže spěch Silicon Valley k maximálním schopnostem má geopolitické důsledky. Čína zvolila jinou cestu, částečně formovanou svou tradicí centralizovaného průmyslového plánování a částečně tím, že v inovacích dohání. Peking usiluje o rychlejší a širší zavádění o něco méně pokročilé – ale stále výkonné – umělé inteligence napříč svou ekonomikou a společností. Čína vsází na rozšířený impuls každodenní umělé inteligence, zatímco USA usilují o transformační skok k obecné umělé inteligenci.

S cenou v podobě globální nadvlády nemá žádná ze stran velkou motivaci starat se o rizika nebo souhlasit s mezinárodními pravidly, která by omezovala využití umělé inteligence nebo vyžadovala transparentnost v jejím vývoji. Ani USA, ani Čína nechtějí podřídit strategicky klíčové odvětví standardům spoluvytvářeným se zahraničními rivaly.

V nepřítomnosti globálního dohledu jsme odkázáni na integritu moderních loupeživých baronů a autoritářských byrokratů, aby do systémů, které jsou již zapojovány do nástrojů, jež používáme pro práci, zábavu a vzdělávání, zabudovali etické záruky.

Letos Elon Musk oznámil, že jeho společnost vyvíjí Baby Grok, chatbot s umělou inteligencí určený pro děti již od tří let. Dospělá verze tohoto chatbotu vyjadřovala názory bílé nadřazenosti a dokonce se hrdě nazývala „MechaHitler“. Ačkoli šokující, takováto flagrantní prohlášení jsou přinejmenším upřímná – jsou snáze rozpoznatelná než jemnější předsudky zabudované v jiných systémech umělé inteligence, které nebyly tak otevřeně ideologicky řízeny jako Muskovy algoritmy.

Ne všechny systémy umělé inteligence jsou velké jazykové modely jako Grok, ale všechny takové modely mají sklon přebírat halucinace a předsudky z dat, na kterých jsou trénovány. Nedokážou skutečně „rozumět“ nebo „přemýšlet“ o otázkách tak, jako to dělá člověk. Místo toho přijmou podnět, vypočítají, jaká je pravděpodobnost, že se určitá slova objeví spolu na základě jejich tréninkových dat, a poté vygenerují odpověď, která zní věrohodně. Často je výsledek přesný a přesvědčivý, ale může to být také naprostý nesmysl. Jak více obsahu generovaného umělou inteligencí zaplavuje internet, rovnováha mezi užitečnými informacemi a nekvalitním „brakem“ v tréninkových datech těchto modelů se posouvá, což znamená, že jsou stále více krmeny odpadem – a nelze se na ně spolehnout, že budou produkovat spolehlivé informace.

Pokud to bude pokračovat, riskujeme, že se vydáme k ponuré budoucnosti: syntetické, umělé realitě utvářené systémy umělé inteligence, které odrážejí předsudky a ega několika mocných ze Silicon Valley. Ale tato budoucnost není nevyhnutelná. Současná bublina kolem umělé inteligence, poháněná přehnaně nadšenými propagátory a jejich sladěním s politickými zájmy, jako je administrativa Trumpa, je příběhem lidské chamtivosti a krátkozrakosti – nikoli nějaké nezastavitelné technologické evoluce. Vytvářená umělá inteligence je působivá, ale hluboce chybná, odrážející nedostatky svých tvůrců, kteří vynikají spíše v prodeji a finančním inženýrství než ve stavbě skutečně inteligentních systémů.

Skutečná bublina není v cenách akcií – je v nafouknutých egech odvětví, které věří, že je jen jeden krok od dosažení božské výpočetní síly. Když tato bublina praskne a přehřátá ekonomika USA se ochladí, bude příležitost pro vyváženější hlasy, aby utvářely způsob, jakým řídíme rizika a regulace umělé inteligence. Tento okamžik možná nenastane v roce 2026, ale blíží se – doba, kdy budeme muset čelit jasné a nevyhnutelné volbě: Vybudujeme svět, kde umělá inteligence slouží lidstvu, nebo svět, kde lidstvo slouží umělé inteligenci? Na tuto otázku nebudeme potřebovat ChatGPT.

Často kladené otázky
FAQs Bublina umělé inteligence Lidská kontrola

Základní otázky

Co je bublina umělé inteligence?
Je to představa, že současné nadšení, masivní investice a přemrštěná ocenění v oblasti umělé inteligence mohou být neudržitelné, podobně jako minulé technologické bubliny. Pokud praskne, následovalo by období korekce trhu a snížených investic.

Co znamená „znovu získat kontrolu“ v tomto kontextu?
Naznačuje to, že pokud šílenství kolem umělé inteligence zpomalí, společnost by mohla vést promyšlenější, méně uspěchanou diskusi o tom, jak umělou inteligenci integrovat. Zaměření by se mohlo přesunout od čistého zisku a rychlosti k lidskému dohledu, etice, dopadu na pracovní místa a stanovení jasných pravidel.

Říká to, že umělá inteligence je špatná?
Ne nutně. Jde spíše o tempo a nadšení, které ji obklopuje. Obava je, že bublina upřednostňuje rychlé nasazení před pečlivým zvážením rizik, bezpečnosti a dopadu na společnost.

Jaké jsou známky bubliny umělé inteligence?
Extrémní nadšení v médiích, společnosti přidávající AI do svého názvu pro zvýšení akcií, masivní kola financování neprokázaných nápadů, strach z promeškání příležitosti řídící všechna rozhodnutí a sliby umělé obecné inteligence v blízké budoucnosti, které mohou být nerealistické.

Zastavil by prasknutí bubliny umělé inteligence vývoj AI?
Ne. Pravděpodobně by zpomalilo zběsilé tempo investic a projektů poháněných nadšením. Seriózní praktický a udržitelný výzkum a aplikace umělé inteligence by pokračovaly, ale s větší kontrolou.

Středně pokročilé a pokročilé otázky

Jak by prasknutí skutečně pomohlo znovu získat kontrolu?
Zpomalení by mohlo vytvořit prostor pro:
Silnější regulaci: Vlády by mohly dohnat a zavést promyšlené zákony.
Etické rámce: Zaměření by se mohlo přesunout na předsudky, transparentnost a odpovědnost.
Přizpůsobení práce: Více času na přeškolování pracovníků a redesign pracovních míst.
Veřejnou diskusi: Méně zběsilé prostředí pro společnost, aby debatovala o roli AI.

Jaké je největší riziko, pokud bublina brzy nepraskne?
Rizikem je uzamčení – zabudování vadných, zaujatých nebo nebezpečných systémů umělé inteligence hluboko do kritické infrastruktury během cyklu nadšení, což by později velmi ztížilo jejich nápravu.

Nejsou velké technologické společnosti příliš zainvestované na to, aby došlo k opravdovému prasknutí?
Jsou mocné, ale velké prasknutí bubliny by stále mohlo vést k významnému znehodnocení akcií, snížení výdajů na spekulativní výzkum a posunu zaměření na zpeněžení stávajících technologií.