Ако изкуственият интелект не е променил живота ви до 2025 г., почти сигурно ще го направи през следващата година. Това е едно от малкото предсказания, които можем уверено да направим в тези несигурни времена. Това не означава, че трябва да вярвате на целия шум около това какво може да прави технологията сега или какво би могла да постигне някой ден. Шумът не се нуждае от вашето доверие – вече е надут от парите на Силициевата долина до степен да изкривява световната икономика и да подхранва геополитическото съперничество, преформяйки нашия свят независимо дали най-екстравагантните обещания на ИИ някога ще се сбъднат.
ChatGPT стартира преди малко повече от три години и бързо се превърна в най-бързо растящото потребителско приложение в историята. Сега има около 800 милиона потребители седмично, а майчината му компания OpenAI се оценява на приблизително 500 милиарда долара. Изпълнителният директор на OpenAI Сам Алтман е изплетел сложна – и за някои подозрително непрозрачна – мрежа от сделки с други играчи от индустрията, за да изгради инфраструктурата, необходима за бъдещето на САЩ, задвижвано от ИИ. Тези ангажименти възлизат на около 1,5 трилиона долара. Това не са реални пари в брой, но за да го осмислим: ако харчите по 1 долар всяка секунда, ще ви трябват 31 700 години, за да изразходвате един трилион долара.
Alphabet (майчината компания на Google), Amazon, Apple, Meta (предишното Facebook) и Microsoft – която притежава дял от 135 милиарда долара в OpenAI – всички изсипват стотици милиарди в същия хазарт. Без тези инвестиции икономиката на САЩ вероятно щеше да стагнира.
Икономическите анализатори и историци, изучавали минали индустриални френзии – от железниците през 19-ти век до бума и срива на дотком компаниите, наричат ИИ балон. Самият Алтман е заявил: "Има много аспекти на ИИ, които според мен в момента са един вид балони." Естествено, той не включва собствения си дял в това. Основателят на Amazon Джеф Безос също го нарича балон – но "добър" такъв, който ускорява икономическия прогрес. Според тази гледна точка добрият балон финансира инфраструктура, разширява човешките познания и оставя трайни ползи, дори след като се спука, оправдавайки разорението на "малките хора", които пострадат по пътя.
Бичият настрой в технологичния свят е мощен микс от старомодна търговска изобретателност, плутократична грандиозност и утопична идеология. В основата му стои маркетингово предложение: сегашните модели на ИИ вече превъзхождат хората в много задачи. Скоро, според това мислене, машините ще постигнат "общ интелект" – когнитивна гъвкавост, подобна на човешката – освобождавайки ни от необходимостта от всякакво човешко участие. Щом ИИ може да се самообучава и да проектира собствените си наследници, той би могъл да напредва с невъобразими темпове към свръхинтелект.
Компанията, която достигне този етап, няма да има проблеми да изплати дълговете си. Мъжете, които задвижват тази визия – а водещите евангелисти са само мъже – биха били за всезнаещия ИИ това, което древните пророци са били за техните богове. Това е доста значима роля за тях. Какво ще се случи с останалите от нас в този "пост-сапиенс" ред е малко по-малко ясно.
САЩ не е единствената суперсила, инвестирала в ИИ, така че стремежът на Силициевата долина към максимални възможности има геополитически залози. Китай е поел по различен път, оформен отчасти от традицията му на централизирано индустриално планиране и отчасти от факта, че играе на наваксване в иновациите. Пекин подтиква за по-бързо и широко възприемане на малко по-малко напреднал – но все пак мощен – ИИ в икономиката и обществото си. Китай залага на широкомащабен тласък от всекидневния ИИ, докато САЩ се стреми към трансформативен скок към общия ИИ.
Със световното господство като награда, никоя от страните няма голям стимул да се притеснява за рискове или да се съгласи на международни правила, които биха ограничили употребата на ИИ или изисквали прозрачност в развитието му. Нито САЩ, нито Китай искат да подложат стратегически жизненоважна индустрия на стандарти, съставени съвместно с чужди конкуренти.
При липса на глобален надзор, оставаме да разчитаме на честността на съвременните барони-разбойници и авторитарни бюрократи да вградят етични защити в системи, които вече се вплитат в инструментите, които използваме за работа, забавление и образование.
Тази година Илон Мъск обяви, че неговата компания разработва Baby Grok, чатбот с ИИ, предназначен за деца на възраст до три години. Възрастната версия на този чатбот е изразявала възгледи на превъзходство на белите раси и дори с гордост се е наричала "МехаХитлер". Въпреки че са шокиращи, такива открити изявления поне са честни – те са по-лесни за разпознаване от по-неуловимите предразсъдъци, вградени в други ИИ системи, които не са били толкова открито управлявани от идеология като алгоритмите на Мъск.
Не всички ИИ системи са големи езикови модели като Grok, но всички такива модели са склонни да улавят халюцинации и пристрастия от данните, с които са обучени. Те не "разбират" или "мислят" наистина по въпросите както човек. Вместо това те приемат заявка, изчисляват колко вероятно е определени думи да се появят заедно въз основа на обучаващите си данни и след това генерират отговор, който звучи правдоподобно. Често резултатът е точен и убедителен, но може да бъде и пълна глупост. Тъй като все повече съдържание, генерирано от ИИ, наводнява интернет, балансът между полезна информация и нискокачествен "боклук" в обучаващите данни на тези модели се измества, което означава, че те се хранят все повече с боклуци – и не може да се разчита на тях да произвеждат надеждна информация в замяна.
Ако това продължи, рискуваме да се отправим към мрачно бъдеще: синтетична, изкуствена реалност, оформена от ИИ системи, които отразяват пристрастията и егото на малцината могъщи в Силициевата долина. Но това бъдеще не е неизбежно. Настоящият шум около ИИ, подхранван от прекалено ентусиазирани поддръжници и тяхното съгласуване с политически интереси като тези на администрацията на Тръмп, е история за човешката алчност и късогледство – а не за някаква неудържима технологична еволюция. Създаваният ИИ е впечатляващ, но дълбоко несъвършен, отразявайки недостатъците на своите създатели, които са по-добри в продажбите и финансовото инженерство, отколкото в изграждането на наистина интелигентни системи.
Истинският балон не е в цените на акциите – той е в надутите егота на една индустрия, която вярва, че е на крачка от постигането на богоподобна изчислителна мощ. Когато този балон се спука и прегрятата икономика на САЩ охладна, ще има възможност за по-балансирани гласове да оформя как управляваме рисковете и регулациите на ИИ. Този момент може да не дойде през 2026 г., но той се приближава – време, когато ще трябва да се изправим пред ясен и неизбежен избор: Изграждаме ли свят, в който ИИ служи на човечеството, или такъв, в който човечеството служи на ИИ? Няма да имаме нужда от ChatGPT, за да отговорим на този въпрос.
Често задавани въпроси
ЧЗВ Балонът на ИИ Човешки контрол
Въпроси за начинаещи
Какво е балонът на ИИ?
Това е идеята, че настоящият шум, масивните инвестиции и високите оценки на изкуствения интелект може да са неустойчиви, подобно на минали технологични балони. Ако се спука, ще последва период на пазарна корекция и намалени инвестиции.
Какво означава "възстановяване на контрола" в този контекст?
Това предполага, че ако френзията около ИИ забави темпото, обществото би могло да води по-обмислен, по-малко прибързан разговор за това как да интегрира ИИ. Фокусът може да се премести от чиста печалба и скорост към човешки надзор, етика, въздействие върху работните места и установяване на ясни правила.
Това означава ли, че ИИ е лош?
Не непременно. По-скоро става въпрос за темпото и шума около него. Притеснението е, че балонът приоритизира бързото внедряване пред внимателното обмисляне на рисковете, безопасността и социалното въздействие.
Какви са признаците на балон на ИИ?
Краен шум в медиите, компании, добавящи ИИ към името си за повишаване на акциите, масивни финансирания за недоказани идеи, страхове от пропускане на възможности, които задвижват всички решения, и обещания за близък общ изкуствен интелект, които може да са нереалистични.
Бихме ли спрели развитието на ИИ, ако балонът се спука?
Не. Това вероятно би забавило безумния темп на инвестициите и проектите, задвижвани от шума. Сериозните, практически и устойчиви изследвания и приложения на ИИ ще продължат, но с повече проверки.
Въпроси за напреднали
Как точно би ни помогнало спукването на балона да възстановим контрола?
Забавянето може да създаде пространство за:
- По-силна регулация: Правителствата биха могли да наваксат и да прилагат обмислени закони.
- Етични рамки: Фокусът може да се премести върху пристрастия, прозрачност и отговорност.
- Адаптация на работната сила: Повече време за преквалификация на работниците и преосмисляне на работните места.
- Обществен диалог: По-малко френизирана среда за обществото да дебатира ролята на ИИ.
Какъв е най-големият риск, ако балонът не се спука скоро?
Рискът е заключване – вграждане на дефектни, пристрастни или небезопасни ИИ системи дълбоко в критична инфраструктура по време на цикъл на шум, което ги прави много трудни за коригиране впоследствие.
Не са ли големите технологични компании твърде инвестирани, за да има истинско спукване?
Те са мощни, но голямо спукване на балон все пак може да доведе до значителна обезценка на акциите, намаляване на разходите за спекулативни изследвания и преместване на фокуса към монетизиране на съществуващите.