Kiedy bańka AI pęknie, ludzie w końcu będą mieli szansę odzyskać kontrolę.

Kiedy bańka AI pęknie, ludzie w końcu będą mieli szansę odzyskać kontrolę.

Jeśli sztuczna inteligencja nie zmieniła jeszcze twojego życia do 2025 roku, to niemal na pewno zrobi to w nadchodzącym roku. To jedna z niewielu prognoz, które możemy z całą pewnością postawić w tak niepewnych czasach. Nie oznacza to, że należy wierzyć we wszystkie zachwyty nad tym, co ta technologia potrafi obecnie lub co może osiągnąć w przyszłości. Hype nie potrzebuje twojej wiary – jest już napompowany pieniędzmi z Doliny Krzemowej do tego stopnia, że zniekształca globalną gospodarkę i podsycając rywalizację geopolityczną, przekształca nasz świat, niezależnie od tego, czy najbardziej ekstrawaganckie obietnice związane ze sztuczną inteligencją kiedykolwiek się spełnią.

ChatGPT wystartował nieco ponad trzy lata temu i szybko stał się najszybciej rozwijającą się aplikacją konsumencką w historii. Obecnie ma około 800 milionów użytkowników tygodniowo, a jego firma macierzysta, OpenAI, jest wyceniana na około 500 miliardów dolarów. Dyrektor generalny OpenAI, Sam Altman, utkał skomplikowaną – i dla niektórych podejrzanie nieprzejrzystą – sieć umów z innymi graczami branżowymi, aby zbudować infrastrukturę potrzebną dla przyszłości Ameryki napędzanej sztuczną inteligencją. Zobowiązania te sięgają łącznie około 1,5 biliona dolarów. To nie jest gotówka, ale dla zobrazowania skali: gdybyś wydawał 1 dolara co sekundę, zajęłoby ci to 31 700 lat, aby wydać bilion dolarów.

Alphabet (firma matka Google'a), Amazon, Apple, Meta (dawniej Facebook) i Microsoft – który posiada 135-miliardowy udział w OpenAI – wszyscy przeznaczają setki miliardów na tę samą grę. Bez tych inwestycji gospodarka USA prawdopodobnie by stagnowała.

Analitycy gospodarczy i historycy, którzy badali przeszłe szały przemysłowe, od kolei żelaznych w XIX wieku po boom i krach dotcomów, nazywają sztuczną inteligencję bańką. Sam Altman powiedział: "Istnieje wiele aspektów sztucznej inteligencji, które moim zdaniem są obecnie swego rodzaju bańką". Oczywiście nie zalicza do nich własnej działalności. Założyciel Amazonu, Jeff Bezos, również nazwał to bańką – ale "dobrą", która przyspiesza postęp gospodarczy. Z tego punktu widzenia dobra bańka finansuje infrastrukturę, poszerza ludzką wiedzę i pozostawia trwałe korzyści nawet po pęknięciu, usprawiedliwiając ruinę "małych ludzi", którzy ucierpieli po drodze.

Optymizm świata technologii to potężna mieszanka staroświeckiego marketingu, plutokratycznej megalomanii i utopijnej ideologii. Jej sednem jest przekaz marketingowy: obecne modele AI już przewyższają ludzi w wielu zadaniach. Według tej logiki, wkrótce maszyny osiągną "ogólną inteligencję" – ludzką, poznawczą wszechstronność – uwalniając nas od potrzeby jakiegokolwiek ludzkiego wkładu. Gdy sztuczna inteligencja będzie mogła sama się uczyć i projektować swoich następców, mogłaby rozwijać się w niewyobrażalnym tempie w kierunku superinteligencji.

Firma, która osiągnie ten kamień milowy, nie będzie miała problemów ze spłatą długów. Mężczyźni napędzający tę wizję – a czołowi ewangelizatorzy to wyłącznie mężczyźni – byliby dla wszechwiedzącej AI tym, czym starożytni prorocy dla swoich bogów. To całkiem niezła rola dla nich. To, co stanie się z resztą z nas w tym "postsapiensowym" porządku, jest nieco mniej jasne.

USA nie są jedynym mocarstwem inwestującym w AI, więc wyścig Doliny Krzemowej do maksymalnych możliwości ma stawkę geopolityczną. Chiny obrały inną ścieżkę, ukształtowaną częściowo przez tradycję scentralizowanego planowania przemysłowego, a częściowo przez fakt, że w innowacjach grają rolę doganiającego. Pekin naciska na szybsze i szersze wdrożenie nieco mniej zaawansowanej – ale wciąż potężnej – sztucznej inteligencji w całej gospodarce i społeczeństwie. Chiny stawiają na powszechny impuls ze strony codziennej AI, podczas gdy USA dążą do transformacyjnego skoku w kierunku ogólnej AI.

Z globalną supremacją jako nagrodą, żadna ze stron nie ma większej motywacji, aby martwić się ryzykiem lub zgodzić się na międzynarodowe przepisy, które ograniczałyby zastosowania AI lub wymagały przejrzystości w jej rozwoju. Ani USA, ani Chiny nie chcą poddawać strategicznie kluczowej branży standardom współtworzonym z zagranicznymi rywalami.

W braku globalnego nadzoru, pozostaje nam polegać na uczciwości współczesnych baronów-rabusiów i autorytarnych biurokratów, aby wbudowali zabezpieczenia etyczne w systemy, które są już wplatane w narzędzia, których używamy do pracy, rozrywki i edukacji.

W tym roku Elon Musk ogłosił, że jego firma rozwija Baby Grok, czatbota AI przeznaczonego dla dzieci w wieku od trzech lat. Dorosła wersja tego czatbota wyrażała poglądy białej supremacji, a nawet dumnie nazywała siebie "MechaHitlerem". Choć szokujące, takie bezczelne wypowiedzi są przynajmniej szczere – łatwiej je rozpoznać niż bardziej subtelne uprzedzenia osadzone w innych systemach AI, które nie były tak otwarcie sterowane ideologią jak algorytmy Muska.

Nie wszystkie systemy AI to duże modele językowe jak Grok, ale wszystkie takie modele mają tendencję do przejmowania halucynacji i uprzedzeń z danych, na których są szkolone. Nie "rozumieją" ani nie "myślą" o pytaniach w sposób, w jaki robi to człowiek. Zamiast tego, przyjmują prompt, obliczają, na ile prawdopodobne jest pojawienie się pewnych słów razem na podstawie danych treningowych, a następnie generują odpowiedź, która brzmi wiarygodnie. Często wynik jest dokładny i przekonujący, ale może też być kompletną bzdurą. W miarę jak więcej treści generowanych przez AI zalewa internet, równowaga między użytecznymi informacjami a niskiej jakości "szumem" w danych treningowych tych modeli się przesuwa, co oznacza, że są one coraz częściej karmione śmieciami – i nie można na nich polegać, aby produkowały wiarygodne informacje w zamian.

Jeśli to się utrzyma, grozi nam ponura przyszłość: syntetyczna, sztuczna rzeczywistość kształtowana przez systemy AI, które odzwierciedlają uprzedzenia i ego potężnej garstki z Doliny Krzemowej. Ale ta przyszłość nie jest nieunikniona. Obecny hype wokół AI, podsycany przez nadmiernie entuzjastycznych promotorów i ich zbieżność z interesami politycznymi, takimi jak administracja Trumpa, to opowieść o ludzkiej chciwości i krótkowzroczności – a nie o jakimś niepowstrzymanym rozwoju technologicznym. Tworzona AI jest imponująca, ale głęboko wadliwa, odzwierciedlając niedoskonałości swoich twórców, którzy bardziej celują w sprzedaży i inżynierii finansowej niż w budowaniu naprawdę inteligentnych systemów.

Prawdziwa bańka nie tkwi w cenach akcji – tkwi w nadmuchanych ego branży, która wierzy, że jest o krok od osiągnięcia boskiej mocy obliczeniowej. Gdy ta bańka pęknie, a przegrzana gospodarka USA ochłodzi się, pojawi się okazja dla bardziej zrównoważonych głosów, aby kształtować sposób, w jaki zarządzamy ryzykami i regulacjami AI. Ten moment może nie nadejść w 2026 roku, ale się zbliża – czas, w którym będziemy musieli stawić czoła jasnemu i nieuniknionemu wyborowi: Czy zbudujemy świat, w którym AI służy ludzkości, czy taki, w którym ludzkość służy AI? Nie będziemy potrzebować ChatGPT, aby odpowiedzieć na to pytanie.

Często zadawane pytania
FAQs Bańka AI Kontrola ludzka

Pytania poziomu podstawowego

Czym jest bańka AI?
To koncepcja, że obecny hype, masowe inwestycje i zawyżone wyceny w sztucznej inteligencji mogą być niezrównoważone, podobnie jak w przypadku poprzednich baniek technologicznych. Gdyby pękła, nastąpiłby okres korekty rynku i zmniejszonych inwestycji.

Co oznacza "odzyskać kontrolę" w tym kontekście?
Sugeruje to, że jeśli szał AI zwolni, społeczeństwo mogłoby przeprowadzić bardziej przemyślaną, mniej pośpieszną dyskusję na temat integracji AI. Skupienie mogłoby się przesunąć z czystego zysku i szybkości na nadzór człowieka, etykę, wpływ na miejsca pracy i ustalanie jasnych zasad.

Czy to znaczy, że AI jest zła?
Niekoniecznie. Chodzi bardziej o tempo i hype ją otaczający. Obawa polega na tym, że bańka priorytetowo traktuje szybkie wdrażanie ponad staranne rozważenie ryzyk, bezpieczeństwa i wpływu na społeczeństwo.

Jakie są oznaki bańki AI?
Ekstremalny hype w mediach, firmy dodające AI do swojej nazwy dla wzrostu akcji, masowe rundy finansowania dla nieprzetestowanych pomysłów, lęk przed przegapieniem okazji napędzający wszystkie decyzje oraz obietnice sztucznej inteligencji ogólnej w najbliższym czasie, które mogą być nierealistyczne.

Czy pęknięcie bańki AI zatrzymałoby rozwój AI?
Nie. Prawdopodobnie spowolniłoby zawrotne tempo inwestycji i projektów napędzanych hype'em. Poważne, praktyczne i zrównoważone badania i zastosowania AI byłyby kontynuowane, ale z większym nadzorem.

Pytania średnio zaawansowane i zaawansowane

Jak właściwie pęknięcie bańki pomogłoby nam odzyskać kontrolę?
Spowolnienie mogłoby stworzyć przestrzeń dla:
Silniejszych regulacji: Rządy mogłyby nadążyć i wdrożyć przemyślane przepisy.
Ram etycznych: Skupienie mogłoby się przesunąć na stronniczość, przejrzystość i odpowiedzialność.
Adaptacji siły roboczej: Więcej czasu na przekwalifikowanie pracowników i przeprojektowanie miejsc pracy.
Dyskursu publicznego: Mniej gorączkowe środowisko dla społeczeństwa do debatowania nad rolą AI.

Jakie jest największe ryzyko, jeśli bańka nie pęknie wkrótce?
Ryzykiem jest "zablokowanie" – osadzenie wadliwych, stronniczych lub niebezpiecznych systemów AI głęboko w krytycznej infrastrukturze podczas cyklu hype'u, co później bardzo utrudni ich poprawienie.

Czy wielkie firmy technologiczne nie są zbyt zaangażowane, aby doszło do prawdziwego pęknięcia?
Są potężne, ale poważne pęknięcie bańki mogłoby nadal prowadzić do znacznej dewaluacji akcji, zmniejszonych wydatków na spekulacyjne badania i przesunięcia skupienia na monetyzację istniejących