Wejście do MIT Media Lab w Cambridge w stanie Massachusetts sprawia wrażenie, jakbyśmy zbliżali się nieco do przyszłości. Przestrzeń wypełniają szklane gabloty prezentujące prototypy dziwnych i zdumiewających wynalazków – od miniaturowych robotów biurkowych po surrealistyczną rzeźbę zaprojektowaną przez sztuczną inteligencję, którą poproszono o wyobrażenie sobie zastawy do herbaty zrobionej z części ciała. W holu asystent AI o imieniu Oscar pomaga gościom segregować śmieci, mówiąc im, gdzie wyrzucić zużytą filiżankę po kawie.
Na piątym piętrze badaczka Nataliya Kosmyna opracowuje noszone interfejsy mózg-komputer. Jej celem jest pomoc osobom, które utraciły zdolność mówienia – na przykład z powodu choroby, takiej jak stwardnienie zanikowe boczne (ALS) – w komunikowaniu się wyłącznie za pomocą myśli.
Większość pracy Kosmyny polega na analizowaniu aktywności mózgu. Projektuje także noszone urządzenie – jedna wersja przypomina okulary – które może wykryć, kiedy ktoś jest zdezorientowany lub traci koncentrację. Około dwa lata temu zaczęła otrzymywać nieoczekiwane e-maile od nieznajomych, którzy twierdzili, że po użyciu dużych modeli językowych, takich jak ChatGPT, czuli, że ich umysły uległy zmianie. Ich pamięć nie wydawała się tak ostra – czy to w ogóle możliwe, pytali?
Sama Kosmyna zauważyła, jak szybko ludzie przyjmują generatywną sztuczną inteligencję. Widziała współpracowników używających ChatGPT w pracy, a wnioski od badaczy chcących dołączyć do jej zespołu zaczęły wyglądać inaczej. Ich e-maile były dłuższe i bardziej formalne. Czasami podczas rozmów kwalifikacyjnych na Zoomie zauważała, że kandydaci pauzują przed odpowiedzią i spoglądają w bok. Czy otrzymywali pomoc od AI? Ta myśl ją zszokowała. A jeśli tak, to ile tak naprawdę rozumieli z odpowiedzi, których udzielili?
Zaintrygowana, Kosmyna wraz z kilkoma kolegami z MIT przeprowadziła eksperyment. Wykorzystali skany EEG do monitorowania aktywności mózgu uczestników piszących eseje – jedni bez pomocy, inni przy użyciu wyszukiwarki, a jeszcze inni używając ChatGPT. Wyniki pokazały, że im więcej pomocy z zewnątrz otrzymywali ludzie, tym niższa była łączność ich mózgu. Osoby używające ChatGPT wykazywały znacznie mniej aktywności w obszarach związanych z myśleniem, uwagą i kreatywnością.
Krótko mówiąc, podczas gdy użytkownicy mogli czuć się zaangażowani, skany mózgu mówiły co innego: niewiele tam się działo.
Po oddaniu esejów uczestników – wszystkich studentów z MIT lub pobliskich szkół – zapytano, czy potrafią przywołać to, co napisali. „Prawie nikt z grupy ChatGPT nie był w stanie zacytować własnej pracy” – mówi Kosmyna. „To niepokojące – dopiero co to napisałeś i nic nie pamiętasz”.
Kosmyna, 35-letnia, jest stylowo ubrana w niebieską sukienkę koszulę i duży, kolorowy naszyjnik. Mówi szybciej niż większość ludzi jest w stanie myśleć. Jak zauważa, napisanie eseju wymaga umiejętności, których używamy na co dzień: syntezy informacji, rozważania różnych punktów widzenia i budowania argumentacji. „Jak poradzisz sobie z rozmową?” – pyta. „Czy będziesz musiał powiedzieć: 'Yyy… czy mogę sprawdzić w telefonie?’”
Badanie było niewielkie – tylko 54 uczestników – i nie zostało jeszcze zrecenzowane. Mimo to w czerwcu Kosmyna opublikowała je online, myśląc, że inni badacze mogą uznać je za interesujące. Nie miała pojęcia, że wywoła międzynarodową burzę medialną.
Oprócz próśb o wywiady otrzymała ponad 4000 e-maili z całego świata. Wiele pochodziło od zestresowanych nauczycieli zaniepokojonych, że uczniowie polegający na ChatGPT przy odrabianiu zadań tak naprawdę się nie uczą. Obawiają się, że AI tworzy pokolenie, które może wyprodukować akceptowalną pracę, ale brakuje mu prawdziwego zrozumienia materiału.
Podstawowym problemem, wyjaśnia Kosmyna, jest to, że gdy technologia ułatwia życie, jesteśmy ewolucyjnie zaprogramowani, aby z niej korzystać. „Nasze mózgi… Naturalnie kochamy skróty, ale nasze mózgi tak naprawdę potrzebują wyzwań, aby uczyć się skutecznie. Wymagają pewnej ilości tarcia, aby rosnąć.
To ciekawe, że podczas gdy nasze umysły potrzebują tego oporu, instynktownie go unikamy. Technologia z kolei obiecuje doświadczenie „bez tarcia”, zapewniając, że płyniemy bez wysiłku z jednej aplikacji lub ekranu na następny bez żadnych przeszkód. To bezproblemowe oddziaływanie jest powodem, dla którego tak chętnie powierzamy informacje i zadania naszym urządzeniom. Wyjaśnia to, dlaczego tak łatwo gubimy się w nieskończonych treściach online i mamy trudności z wyjściem z nich. To także powód, dla którego generatywna AI tak szybko stała się podstawą codziennej rutyny wielu ludzi.
Z naszych wspólnych doświadczeń wiemy, że gdy raz przyzwyczaisz się do hiperwydajności świata cyfrowego, prawdziwy świat – ze wszystkimi jego tarciami – wydaje się trudniejszy do nawigacji. Możesz więc unikać rozmów telefonicznych, używać samoobsługowych kas, zamawiać wszystko przez aplikację. Możesz chwycić telefon, aby rozwiązać problem matematyczny, który mógłbyś obliczyć w głowie, sprawdzić fakt zamiast go przypomnieć lub polegać na Mapach Google, aby poprowadziły cię z punktu A do B bez myślenia. Być może przestałeś czytać książki, ponieważ utrzymanie koncentracji wydaje się zbyt dużym wysiłkiem, albo marzysz o posiadaniu samochodu samojezdnego. Czy to początek tego, co pisarka i ekspertka edukacyjna Daisy Christodoulou nazywa „społeczeństwem głupiejącym” – podobnym do środowiska promującego otyłość, ale takiego, które ułatwia stawanie się intelektualnie leniwym, ponieważ maszyny myślą za ciebie?
Ludzka inteligencja jest zbyt zróżnicowana, aby po prostu nazywać ją „głupią”, ale istnieją niepokojące oznaki, że nasze cyfrowe udogodnienia odbierają swoją daninę. W rozwiniętych krajach OECD wyniki Pisa – które oceniają umiejętności czytania, matematyki i nauk ścisłych u 15-latków – osiągnęły szczyt około 2012 roku. Podczas gdy wskaźniki IQ rosły globalnie przez cały XX wiek, prawdopodobnie z powodu lepszej edukacji i odżywiania, obecnie wydają się spadać w wielu rozwiniętych krajach.
Debata na temat spadających wyników testów i IQ jest gorąca. Trudniej zaprzeczyć, że z każdym postępem technologicznym stajemy się bardziej zależni od urządzeń cyfrowych i coraz trudniej jest nam pracować, pamiętać, myśleć, a nawet funkcjonować bez nich. Jak z frustracją zauważa jedna z ekspertek, Kosmyna, „Tylko programiści i dilerzy narkotyków nazywają ludzi użytkownikami”. Podkreśla to pośpiech firm AI, by wepchnąć swoje produkty społeczeństwu, zanim w pełni zrozumiemy psychologiczne i poznawcze konsekwencje.
W nieustannie rosnącej, pozbawionej tarcia sferze online jesteś przede wszystkim użytkownikiem: biernym i zależnym. Gdy wchodzimy w erę generowanych przez AI dezinformacji i deepfake'ów, jak zachowamy sceptycyzm i niezależne myślenie, których będziemy potrzebować? Gdy zdamy sobie sprawę, że nasze umysły nie są już w pełni naszą własnością i nie potrafimy jasno myśleć bez technologii, ile z naszej własnej siły woli pozostanie, aby się przeciwstawić?
Jeśli wyrażasz niepokój o to, co inteligentne maszyny robią z naszymi mózgami, możesz w niedalekiej przyszłości zostać wyśmiany jako staroświecki. Sokrates niegdyś martwił się, że pisanie osłabi pamięć i będzie sprzyjać powierzchownemu rozumieniu – „próżności mądrości” zamiast prawdziwej mądrości. Ten argument odzwierciedla wiele współczesnych krytyk AI. Jednakże pisanie i późniejsze technologie, takie jak druk, media masowe i internet, faktycznie dały większej liczbie ludzi dostęp do większej ilości informacji. Pozwoliło to większej liczbie osób rozwijać i dzielić się wielkimi pomysłami, czyniąc nas mądrzejszymi i bardziej innowacyjnymi zarówno indywidualnie, jak i jako społeczeństwo.
Ostatecznie, pisanie nie tylko zmieniło sposób dostępu i przechowywania informacji; przekształciło sposób, w jaki myślimy. Z notatnikiem i długopisem osoba może podjąć się bardziej złożonych zadań niż tylko z pamięcią. Używanie AI często skutkuje mdłą, pozbawioną wyobraźni i faktycznie wątpliwą pracą. Jednym z problemów jest „efekt kotwicy”: kiedy zadajesz pytanie generatywnej AI, jej odpowiedź może zablokować twoje myślenie na określonej ścieżce, czyniąc cię mniej otwartym na inne pomysły. Jak wyjaśnia jeden ekspert: „Weźmy na przykład świecę. AI może pomóc ci ją ulepszyć – sprawić, by była jaśniejsza, trwalsza, tańsza i atrakcyjniejsza – ale nie doprowadzi do wynalezienia żarówki”. Aby dokonać tego skoku, potrzebne jest ludzkie krytyczne myślenie, które może być chaotyczne, nieustrukturyzowane i nieprzewidywalne. Kiedy firmy wprowadzają narzędzia takie jak chatbot Copilot bez odpowiedniego szkolenia, ryzykują stworzenie zespołów przeciętnych wytwórców świec w świecie, który potrzebuje wysokowydajnych żarówek.
Kolejnym zmartwieniem jest to, że dorośli, którzy używają AI jako skrótu, przynajmniej skorzystali z systemu edukacji istniejącego zanim komputery mogły odrabiać za nich pracę domową. Niedawne brytyjskie badanie wykazało, że 92% studentów używa AI, a około 20% użyło jej do napisania całości lub części zadania. Rodzi to pytania, ile tak naprawdę się uczą. Czy szkoły i uniwersytety wciąż pielęgnują kreatywnych, oryginalnych myślicieli, którzy mogą budować mądrzejsze społeczeństwa, czy produkują bezmyślne, łatwowierne automaty, które polegają na AI przy pisaniu esejów?
Kilka lat temu Matt Miles, nauczyciel psychologii w liceum w Wirginii, uczestniczył w programie szkoleniowym na temat technologii w szkołach. Instruktorzy pokazali film przedstawiający uczennicę przyłapaną na używaniu telefonu w klasie, która następnie twierdziła, że prowadzi badania z ekspertem od wody z Botswany. „To śmieszne. Dzieciaki wszystkie się śmieją, kiedy to widzą” – mówi Miles. Zaniepokojeni przepaścią między poglądami decydentów a rzeczywistością w klasie, on i jego kolega Joe Clement napisali w 2017 roku „Screen Schooled”, argumentując, że zbyt dużo technologii czyni dzieci mniej inteligentnymi. Od tego czasu zakazali smartfonów w swoich klasach, choć uczniowie nadal używają laptopów. Jak trafnie zauważył jeden uczeń: „Jeśli widzisz mnie z telefonem, istnieje 0% szans, że jestem produktywny. Na laptopie – 50%”.
Według badaczki Faith Boninger, przed pandemią wielu nauczyciieli słusznie podchodziło sceptycznie do dodawania większej ilości technologii do klas. Ale gdy lockdowny zmusiły szkoły do przejścia online, narzędzia takie jak Google Workspace for Education, Kahoot! i Zearn stały się powszechne. Wraz z pojawieniem się generatywnej AI pojawiły się nowe obietnice zrewolucjonizowania edukacji poprzez spersonalizowane uczenie się i zmniejszenie obciążenia nauczycieli. Jednak niemal wszystkie badania wspierające te korzyści są finansowane przez branżę ed-tech, podczas gdy większość niezależnych, szeroko zakrojonych badań pokazuje, że czas przed ekranem utrudnia osiągnięcia. Na przykład globalne badanie OECD wykazało, że zwiększone użycie technologii w szkołach koreluje z gorszymi wynikami uczniów.
„Po prostu nie ma niezależnych dowodów na dużą skalę na skuteczność tych narzędzi” – mówi Wayne Holmes, profesor University College London. „W istocie eksperymentujemy na dzieciach z tymi technologiami. Większość rozsądnych ludzi nie weszłaby do baru i…” Wyobraź sobie, gdyby ktoś zaoferował ci nowy narkotyk, twierdząc, że jest świetny dla twojego zdrowia, a ty po prostu zacząłbyś go zażywać bez pytania. Zwykle wymagamy, aby nasze leki przechodziły rygorystyczne testy i były przepisywane przez profesjonalistów. Jednak gdy chodzi o technologię edukacyjną, która ma być tak korzystna dla rozwijających się umysłów dzieci, nagle porzucamy te standardy.
Miles i Clement martwią się nie tylko o to, że ich uczniowie są ciągle rozpraszani przez urządzenia, ale także o to, że tracą szansę na rozwój krytycznego myślenia i głębokiego zrozumienia, gdy odpowiedzi są zawsze na wyciągnięcie ręki przez szybkie wyszukiwanie. Clement wspomina czasy, kiedy zadawał pytanie takie jak: „Jak myślicie, na którym miejscu plasują się Stany Zjednoczone pod względem PKB per capita?” i prowadził klasę przez proces dochodzenia do odpowiedzi. Teraz ktoś już sprawdził to online, zanim on skończy pytać. Uczniowie regularnie używają ChatGPT i denerwują się, jeśli zadania nie są dostarczane cyfrowo, zmuszając ich do wpisywania pytań zamiast kopiowania i wklejania do AI lub wyszukiwarki.
„Znalezienie właściwej odpowiedzi przez Google nie jest tym samym co posiadanie wiedzy” – zauważa Clement. „A wiedza jest kluczowa, ponieważ pozwala zakwestionować coś, co brzmi nie tak lub fałszywie. Bez niej możesz przeczytać bloga o płaskiej Ziemi i pomyśleć: 'To ma sens’, ponieważ brakuje ci podstaw, aby wiedzieć lepiej”. Martwi się, że internet jest już zalany teoriami spiskowymi i dezinformacją, problem, który tylko się pogorszy, gdy AI będzie generować przekonujące, ale fałszywe treści, a młodzi ludzie nie są przygotowani, aby sobie z tym poradzić.
Podczas pandemii Miles znalazł swojego młodego syna płaczącego nad szkolnym tabletem. Chłopiec utknął na problemie matematycznym, który kazał mu ut