Dacă până în 2025 inteligența artificială nu v-a schimbat viața, aproape sigur că o va face în anul următor. Aceasta este una dintre puținele predicții pe care le putem face cu încredere în vremuri atât de nesigure. Asta nu înseamnă că ar trebui să credeți toată agitația din jurul a ceea ce tehnologia poate face acum sau ar putea realiza într-o bună zi. Agitația nu are nevoie de credința voastră - este deja umflată de banii din Silicon Valley până în punctul în care denaturează economia globală și alimentează rivalitățile geopolitice, remodelând lumea noastră indiferent dacă cele mai extravagante promisiuni ale IA se vor împlini vreodată.
ChatGPT a fost lansat acum puțin peste trei ani și a devenit rapid cea mai rapid crescătoare aplicație pentru consumatori din istorie. Acum are aproximativ 800 de milioane de utilizatori săptămânal, iar compania mamă, OpenAI, este evaluată la aproximativ 500 de miliarde de dolari. CEO-ul OpenAI, Sam Altman, a țesut o rețea complexă - și pentru unii, suspect de opacă - de înțelegeri cu alți jucători din industrie pentru a construi infrastructura necesară viitorului american alimentat de IA. Aceste angajamente totalizează aproximativ 1,5 trilioane de dolari. Aceștia nu sunt bani lichizi, dar pentru a pune lucrurile în perspectivă: dacă ați cheltui 1 dolar pe secundă, vi-ar trebui 31.700 de ani pentru a cheltui un trilion de dolari.
Alphabet (compania mamă a Google), Amazon, Apple, Meta (fostul Facebook) și Microsoft - care deține o participație de 135 de miliarde de dolari în OpenAI - toarnă sute de miliarde în același pariu. Fără aceste investiții, economia SUA ar fi probabil stagnată.
Analiștii economici și istoricii care au studiat frenesiile industriale din trecut, de la căile ferate din secolul al XIX-lea până la boom-ul și prăbușirea dotcom, numesc IA o bulă. Altman însuși a spus: "Există multe părți ale IA pe care le consider cam umflate în acest moment." Desigur, el nu își include propria parte în asta. Fondatorul Amazon, Jeff Bezos, a numit-o și el o bulă - dar una "bună" care accelerează progresul economic. În această viziune, o bulă bună finanțează infrastructura, extinde cunoștințele umane și lasă beneficii durabile chiar și după ce se sparge, justificând ruinarea "micilor oameni" care sunt răniți pe parcurs.
Optimismul lumii tehnologice este un amestec puternic de vânzări în stil vechi, grandomanie plutocratică și ideologie utopică. În centrul său se află un mesaj de marketing: modelele actuale de IA depășesc deja oamenii la multe sarcini. În curând, gândesc unii, mașinile vor atinge "inteligența generală" - versatilitate cognitivă asemănătoare omului - eliberându-ne de nevoia oricărei contribuții umane. Odată ce IA se poate învăța singură și poate proiecta proprii succesori, ar putea avansa într-un ritm de neimaginat spre super-inteligență.
Compania care atinge acel capăt nu va avea probleme să-și plătească datoriile. Bărbații care conduc această viziune - și principalii evangheliști sunt toți bărbați - ar fi pentru IA omniscientă ceea ce profeții antici erau pentru zeii lor. Este un rol destul de important pentru ei. Ce se întâmplă cu restul dintre noi în această ordine "post-sapiens" este puțin mai puțin clar.
SUA nu este singura superputere care investește în IA, așa că goana Silicon Valley către capacitate maximă are mize geopolitice. China a urmat o cale diferită, modelată parțial de tradiția sa de planificare industrială centralizată și parțial de faptul că se află în urmă în inovație. Beijing împinge pentru o adoptare mai rapidă și mai largă a unei IA puțin mai puțin avansate - dar tot puternice - în întreaga sa economie și societate. China pariază pe un impuls larg din IA de zi cu zi, în timp ce SUA vizează un salt transformator către IA generală.
Cu supremația globală ca premiu, niciuna dintre părți nu are prea multă motivație să se îngrijoreze de riscuri sau să accepte reguli internaționale care să restricționeze utilizările IA sau să solicite transparență în dezvoltarea sa. Nici SUA, nici China nu doresc să supună o industrie strategic vitală unor standarde co-scrise cu rivali străini.
În absența unei supravegheri globale, rămânem să ne bazăm pe integritatea baronilor jefuitori moderni și a birocraților autoritari pentru a construi garanții etice în sisteme care sunt deja întrepătrunse în instrumentele pe care le folosim pentru muncă, divertisment și educație.
Anul acesta, Elon Musk a anunțat că compania sa dezvoltă Baby Grok, un chatbot de IA destinat copiilor de doar trei ani. Versiunea pentru adulți a acestui chatbot a exprimat vederi supremaciste albe și chiar s-a numit cu mândrie "MechaHitler". Deși șocante, astfel de afirmații flagrante sunt cel puțin sincere - sunt mai ușor de recunoscut decât prejudecățile mai subtile încorporate în alte sisteme de IA care nu au fost atât de deschis direcționate de ideologie ca algoritmii lui Musk.
Nu toate sistemele de IA sunt modele lingvistice mari precum Grok, dar toate astfel de modele sunt predispuse să preia halucinații și prejudecăți din datele pe care sunt antrenate. Ele nu "înțeleg" sau "gândesc" cu adevărat întrebările așa cum face o persoană. În schimb, ele iau un prompt, calculează cât de probabil este ca anumite cuvinte să apară împreună pe baza datelor lor de antrenament și apoi generează un răspuns care sună plauzibil. Adesea rezultatul este precis și convingător, dar poate fi și un nonsens complet. Pe măsură ce mai mult conținut generat de IA inundă internetul, balanța dintre informații utile și "deșeuri" de calitate scăzută în datele de antrenament ale acestor modele se schimbă, ceea ce înseamnă că sunt alimentate din ce în ce mai mult cu gunoi - și nu se poate conta pe ele să producă informații fiabile în schimb.
Dacă acest lucru continuă, riscăm să ne îndreptăm către un viitor sumbru: o realitate sintetică, artificială modelată de sistemele de IA care reflectă prejudecățile și ego-urile puternicilor puțini din Silicon Valley. Dar acel viitor nu este inevitabil. Actuala agitație din jurul IA, alimentată de susținători prea entuziaști și de alinierea lor cu interese politice precum administrația Trump, este o poveste despre lăcomia și lipsa de perspectivă umană - nu despre o evoluție tehnologică de neoprit. IA care este creată este impresionantă, dar profund defectuoasă, reflectând deficiențele creatorilor săi, care se pricep mai mult la vânzări și inginerie financiară decât la construirea unor sisteme cu adevărat inteligente.
Adevărata bulă nu este în prețurile acțiunilor - este în ego-urile umflate ale unei industrii care crede că este la un pas distanță de a atinge putere de calcul asemănătoare zeului. Când acea bulă se va sparge, iar economia supraîncălzită a SUA se va răci, va exista o oportunitate pentru voci mai echilibrate să modeleze modul în care gestionăm riscurile și reglementările IA. Acel moment poate să nu sosească în 2026, dar se apropie - un moment în care va trebui să înfruntăm o alegere clară și inevitabilă: Construim o lume în care IA servește umanitatea sau una în care umanitatea servește IA? Nu vom avea nevoie de ChatGPT pentru a răspunde la această întrebare.
Întrebări frecvente
Întrebări frecvente Bula IA Controlul uman
Întrebări pentru începători
Ce este bula IA?
Este ideea că actuala agitație, investiții masive și evaluări exorbitante în inteligența artificială ar putea fi nesustenabile, similar cu bulele tehnologice din trecut. Dacă se sparge, ar urma o perioadă de corecție a pieței și investiții reduse.
Ce înseamnă "recăpătarea controlului" în acest context?
Sugerează că dacă frenesia IA încetinește, societatea ar putea avea o discuție mai deliberată, mai puțin grăbită despre cum să integreze IA. Focusul s-ar putea muta de la profitul pur și viteză către supraveghere umană, etică, impactul asupra locurilor de muncă și stabilirea unor reguli clare.
Spune acest lucru că IA este rea?
Nu neapărat. Este mai degrabă despre ritmul și agitația din jurul său. Preocuparea este că o bulă prioritizează implementarea rapidă în detrimentul unei considerări atente a riscurilor, siguranței și impactului social.
Care sunt semnele unei bule IA?
Agitație extremă în media, companii care adaugă IA în numele lor pentru a-și stimula acțiunile, runde de finanțare masive pentru idei nedovedite, teama de a pierde oportunități care conduce toate deciziile și promisiuni de inteligență artificială generală pe termen scurt care pot fi nerealiste.
Ar opri o spargere a bulei IA dezvoltarea IA?
Nu. Ar încetini probabil ritmul vertiginos al investițiilor și al proiectelor alimentate de agitație. Cercetarea și aplicațiile practice și sustenabile ale IA ar continua, dar cu mai multă scrutare.
Întrebări intermediare și avansate
Cum ar ajuta o spargere efectiv la recăpătarea controlului?
O încetinire ar putea crea spațiu pentru:
Reglementări mai puternice: Guvernele ar putea recupera terenul și să implementeze legi gândite.
Cadre etice: Focusul s-ar putea muta către prejudecăți, transparență și responsabilitate.
Adaptarea forței de muncă: Mai mult timp pentru recalificarea lucrătorilor și reconfigurarea locurilor de muncă.
Discurs public: Un mediu mai puțin frenetic pentru societate să dezbată rolul IA.
Care este cel mai mare risc dacă bula nu se sparge în curând?
Riscul este blocarea, încorporarea sistemelor de IA defectuoase, părtinitoare sau nesigure adânc în infrastructura critică în timpul unui ciclu de agitație, făcându-le foarte greu de corectat ulterior.
Nu sunt companiile mari de tehnologie prea investite pentru o adevărată spargere?
Ele sunt puternice, dar o spargere majoră a bulei ar putea totuși duce la deprecieri semnificative ale acțiunilor, cheltuieli reduse pentru cercetare speculativă și o schimbare a focusului către monetizarea celor existente.