Ist dies eine Zeit, in der Dummheit zu gedeihen scheint?

Ist dies eine Zeit, in der Dummheit zu gedeihen scheint?

Beim Betreten des MIT Media Lab in Cambridge, Massachusetts, fühlt es sich an, als träte man ein Stück näher in die Zukunft. Glasvitrinen säumen den Raum und zeigen Prototypen seltsamer und wunderbarer Erfindungen – von winzigen Desktop-Robotern bis hin zu einer surrealen Skulptur, die von einer KI entworfen wurde, nachdem man sie bat, ein Teeservice aus Körperteilen zu imaginieren. In der Lobby hilft ein KI-Assistent namens Oscar Besuchern bei der Mülltrennung und weist sie an, wo sie einen benutzten Kaffeebecher entsorgen können.

Einen Stock höher entwickelt die Wissenschaftlerin Nataliya Kosmyna tragbare Gehirn-Computer-Schnittstellen. Ihr Ziel ist es, eines Tages Menschen zu helfen, die aufgrund von Erkrankungen wie ALS die Fähigkeit zu sprechen verloren haben, sodass sie nur mit ihren Gedanken kommunizieren können.

Ein Großteil von Kosmynas Arbeit besteht darin, Gehirnaktivität zu analysieren. Sie entwirft auch ein tragbares Gerät – eine Version sieht aus wie eine Brille – das erkennen kann, wenn jemand verwirrt ist oder den Fokus verliert. Vor etwa zwei Jahren begann sie, unerwartete E-Mails von Fremden zu erhalten, die sagten, nach der Nutzung großer Sprachmodelle wie ChatGPT hätten sie das Gefühl, ihr Geist habe sich verändert. Ihr Gedächtnis schien nicht mehr so scharf zu sein – sei das überhaupt möglich, fragten sie?

Kosmyna selbst hatte bemerkt, wie schnell die Menschen generative KI annahmen. Sie sah Kollegen, die bei der Arbeit ChatGPT nutzten, und Bewerbungen von Forschern, die ihrem Team beitreten wollten, begannen anders auszusehen. Ihre E-Mails waren länger und formeller. Manchmal bemerkte sie bei Zoom-Interviews, dass Kandidaten vor der Antwort innehalten und zur Seite blickten. Bekamen sie Hilfe von einer KI? Der Gedanke schockierte sie. Und wenn ja, wie viel verstanden sie wirklich von den Antworten, die sie gaben?

Neugierig machten Kosmyna und einige MIT-Kollegen ein Experiment. Sie nutzten EEG-Scans, um die Gehirnaktivität von Teilnehmern zu überwachen, während diese Aufsätze schrieben – einige ohne Hilfe, einige mit einer Suchmaschine und andere mit ChatGPT. Die Ergebnisse zeigten, dass je mehr externe Hilfe die Menschen erhielten, desto geringer ihre Gehirnkonnektivität war. Diejenigen, die ChatGPT nutzten, zeigten deutlich weniger Aktivität in Bereichen, die mit Denken, Aufmerksamkeit und Kreativität verbunden sind.

Kurz gesagt: Während die Nutzer sich vielleicht engagiert fühlten, erzählten die Gehirnscans eine andere Geschichte: Dort oben passierte nicht viel.

Nachdem sie ihre Aufsätze abgegeben hatten, wurden die Teilnehmer – allesamt Studenten vom MIT oder nahegelegenen Schulen – gefragt, ob sie sich an das Geschriebene erinnern konnten. "Kaum jemand aus der ChatGPT-Gruppe konnte seine eigene Arbeit zitieren", sagt Kosmyna. "Das ist besorgniserregend – man hat es gerade erst geschrieben und erinnert sich an nichts."

Kosmyna, 35, ist stilvoll in einem blauen Hemdkleid und einer großen, bunten Halskette gekleidet. Sie spricht schneller, als die meisten Menschen denken können. Wie sie betont, erfordert das Schreiben eines Aufsatzes Fähigkeiten, die wir täglich nutzen: Informationen synthetisieren, verschiedene Standpunkte abwägen und eine Argumentation aufbauen. "Wie willst du dann ein Gespräch führen?", fragt sie. "Musst du dann sagen: 'Äh... kann ich kurz mein Handy checken?'"

Die Studie war klein – nur 54 Teilnehmer – und ist noch nicht von Fachleuten begutachtet worden. Trotzdem stellte Kosmyna sie im Juni online, in der Annahme, andere Forscher könnten sie interessant finden. Sie hatte keine Ahnung, dass sie einen internationalen Mediensturm auslösen würde.

Neben Interviewanfragen erhielt sie über 4.000 E-Mails aus der ganzen Welt. Viele kamen von gestressten Lehrern, die besorgt sind, dass Schüler, die sich für Hausaufgaben auf ChatGPT verlassen, nicht wirklich lernen. Sie fürchten, dass KI eine Generation hervorbringt, die akzeptable Arbeit leisten kann, aber das wahre Verständnis für den Stoff vermissen lässt.

Das Kernproblem, erklärt Kosmyna, ist, dass wir evolutionär darauf programmiert sind, eine Technologie zu nutzen, sobald sie das Leben einfacher macht. "Unser Gehirn..." Wir lieben Abkürzungen von Natur aus, aber unsere Gehirne brauchen eigentlich Herausforderungen, um effektiv zu lernen. Sie benötigen eine gewisse Reibung, um zu wachsen.

Es ist interessant, dass wir diesen Widerstand instinktiv meiden, obwohl unsere Köpfe ihn brauchen. Die Technologie hingegen verspricht ein "reibungsloses" Erlebnis und stellt sicher, dass wir mühelos von einer App oder einem Bildschirm zum nächsten gleiten, ohne auf Hindernisse zu stoßen. Diese nahtlose Interaktion ist der Grund, warum wir so bereitwillig Informationen und Aufgaben an unsere Geräte abgeben. Es erklärt, warum wir uns leicht in endlosen Online-Inhalten verlieren und Schwierigkeiten haben, uns daraus zu befreien. Es ist auch der Grund, warum generative KI so schnell zu einem Grundbestandteil im Alltag vieler Menschen geworden ist.

Aus unserer gemeinsamen Erfahrung wissen wir, dass, sobald man sich an die Hypereffizienz der digitalen Welt gewöhnt hat, sich die reale Welt – mit all ihrer Reibung – schwieriger zu navigieren anfühlt. Also meidet man vielleicht Telefonate, nutzt Selbstbedienungskassen und bestellt alles über eine App. Man greift zum Handy, um ein Matheproblem zu lösen, das man im Kopf hätte lösen können, schlägt eine Tatsache nach, anstatt sich zu erinnern, oder verlässt sich auf Google Maps, um einen von A nach B zu lotsen, ohne nachzudenken. Vielleicht hat man aufgehört, Bücher zu lesen, weil es zu anstrengend erscheint, die Konzentration aufrechtzuerhalten, oder man träumt von einem selbstfahrenden Auto. Ist das der Beginn dessen, was die Autorin und Bildungsexpertin Daisy Christodoulou eine "stupidogene Gesellschaft" nennt – ähnlich einer Umgebung, die Fettleibigkeit fördert, aber eine, die es leicht macht, geistig faul zu werden, weil Maschinen das Denken für einen übernehmen?

Menschliche Intelligenz ist zu vielfältig, um sie einfach als "dumm" zu bezeichnen, aber es gibt besorgniserregende Anzeichen dafür, dass unsere digitalen Annehmlichkeiten ihren Tribut fordern. In den entwickelten OECD-Ländern erreichten die Pisa-Ergebnisse – die Lese-, Mathematik- und Naturwissenschaftskenntnisse bei 15-Jährigen bewerten – um das Jahr 2012 ihren Höhepunkt. Während die IQ-Werte im 20. Jahrhundert weltweit stiegen, wahrscheinlich aufgrund besserer Bildung und Ernährung, scheinen sie nun in vielen entwickelten Ländern zu sinken.

Die Debatte über sinkende Testergebnisse und IQ-Werte ist hitzig. Was schwerer zu leugnen ist, ist, dass wir mit jedem technologischen Fortschritt abhängiger von digitalen Geräten werden und es zunehmend schwieriger finden, ohne sie zu arbeiten, uns zu erinnern, zu denken oder sogar zu funktionieren. Wie eine Expertin, Kosmyna, frustriert anmerkt: "Nur Softwareentwickler und Drogendealer nennen Leute 'User'." Dies unterstreicht den Drang der KI-Unternehmen, ihre Produkte auf die Öffentlichkeit loszulassen, bevor wir die psychologischen und kognitiven Folgen vollständig begreifen.

In der stetig wachsenden, reibungslosen Online-Welt ist man in erster Linie ein Nutzer: passiv und abhängig. Während wir in eine Ära KI-generierter Desinformation und Deepfakes eintreten, wie werden wir dann den nötigen Skeptizismus und das unabhängige Denken bewahren? Wenn wir erkennen, dass unser Geist nicht mehr vollständig unser eigener ist und wir ohne Technologie nicht klar denken können, wie viel eigene Willenskraft bleibt uns dann noch, um uns dagegen zu wehren?

Wenn man sich Sorgen darüber äußert, was intelligente Maschinen mit unserem Gehirn anstellen, könnte man in naher Zukunft als altmodisch ausgelacht werden. Sokrates sorgte sich einst, dass das Schreiben das Gedächtnis schwächen und ein oberflächliches Verständnis fördern würde – eine "Einbildung von Weisheit" anstatt echter Weisheit. Dieses Argument hallt in vielen modernen KI-Kritiken wider. Allerdings ermöglichten die Schrift und nachfolgende Technologien wie der Buchdruck, Massenmedien und das Internet tatsächlich mehr Menschen Zugang zu mehr Informationen. Dies erlaubte mehr Individuen, großartige Ideen zu entwickeln und zu teilen, was uns individuell und als Gesellschaft klüger und innovativer machte.

Schließlich veränderte das Schreiben nicht nur, wie wir auf Informationen zugreifen und sie speichern; es verwandelte, wie wir denken. Mit einem Notizblock und Stift kann eine Person komplexere Aufgaben bewältigen als mit dem Gedächtnis allein.
Die Nutzung von KI führt oft zu faden, einfallslosen und faktisch fragwürdigen Ergebnissen. Ein Problem ist der "Ankereffekt": Wenn man einer generativen KI eine Frage stellt, kann ihre Antwort das Denken auf einen bestimmten Pfad festlegen und einen weniger offen für andere Ideen machen. Wie ein Experte erklärt: "Nehmen Sie eine Kerze. KI kann helfen, sie zu verbessern – heller, langlebiger, billiger, attraktiver zu machen – aber sie führt nicht zur Erfindung der Glühbirne." Um diesen Sprung zu schaffen, braucht es menschliches kritisches Denken, das chaotisch, unstrukturiert und unvorhersehbar sein kann. Wenn Unternehmen Tools wie den Chatbot Copilot ohne angemessene Schulung einführen, riskieren sie, Teams von mittelmäßigen Kerzenmachern in einer Welt zu schaffen, die hocheffiziente Glühbirnen benötigt.

Eine weitere Sorge ist, dass Erwachsene, die KI als Abkürzung nutzen, zumindest von einem Bildungssystem profitiert haben, das existierte, bevor Computer ihre Hausaufgaben machen konnten. Eine aktuelle britische Umfrage ergab, dass 92 % der Universitätsstudenten KI nutzen und etwa 20 % sie verwendet haben, um ganz oder teilweise eine Aufgabe zu schreiben. Dies wirft Fragen darüber auf, wie viel sie tatsächlich lernen. Fördern Schulen und Universitäten noch immer kreative, originelle Denker, die intelligentere Gesellschaften aufbauen können, oder produzieren sie gedankenlose, leichtgläubige Drohnen, die sich auf KI verlassen, um Aufsätze zu schreiben?

Vor einigen Jahren nahm Matt Miles, ein Psychologielehrer an einer Highschool in Virginia, an einem Schulungsprogramm über Technologie in Schulen teil. Die Ausbilder zeigten ein Video einer Schülerin, die dabei erwischt wurde, ihr Handy im Unterricht zu benutzen, die dann behauptete, sie forsche mit einem Wasserexperten aus Botswana. "Es ist lächerlich. Die Kinder lachen alle, wenn sie es sehen", sagt Miles. Besorgt über die Kluft zwischen den Ansichten der Entscheidungsträger und der Klassenzimmerrealität schrieben er und sein Kollege Joe Clement 2017 "Screen Schooled" und argumentierten, dass zu viel Technologie Kinder weniger intelligent mache. Seitdem haben sie Smartphones in ihren Klassenzimmern verboten, obwohl Schüler noch Laptops nutzen. Wie ein Schüler treffend bemerkte: "Wenn Sie mich auf meinem Handy sehen, besteht eine 0%ige Chance, dass ich produktiv bin. Auf meinem Laptop sind es 50 %."

Laut der Forscherin Faith Boninger waren viele Lehrer vor der Pandemie zu Recht skeptisch, mehr Technologie in Klassenzimmer zu integrieren. Aber als Lockdowns Schulen online zwangen, wurden Tools wie Google Workspace for Education, Kahoot! und Zearn alltäglich. Mit dem Aufstieg generativer KI gab es neue Versprechungen, die Bildung durch personalisiertes Lernen und reduzierte Lehrerarbeitslast zu revolutionieren. Allerdings wird fast die gesamte Forschung, die diese Vorteile unterstützt, von der Ed-Tech-Branche finanziert, während die meisten unabhängigen, groß angelegten Studien zeigen, dass Bildschirmzeit die Leistung beeinträchtigt. Beispielsweise ergab eine globale OECD-Studie, dass verstärkter Technologieeinsatz in Schulen mit schlechteren Schülerleistungen korreliert.

"Es gibt einfach keine unabhängigen Belege in großem Maßstab für die Wirksamkeit dieser Tools", sagt Wayne Holmes, Professor am University College London. "Im Wesentlichen experimentieren wir mit diesen Technologien an Kindern. Die meisten vernünftigen Menschen würden nicht in eine Bar gehen und..."
Stellen Sie sich vor, jemand böte Ihnen eine neue Droge an, behauptete, sie sei großartig für Ihre Gesundheit, und Sie würden sie einfach ohne Nachfrage einnehmen. Normalerweise verlangen wir, dass unsere Medikamente rigorosen Tests unterzogen und von Fachleuten verschrieben werden. Doch wenn es um Bildungstechnologie geht, die so vorteilhaft für die sich entwickelnden Köpfe von Kindern sein soll, lassen wir diese Standards plötzlich fallen.

Miles und Clement sind nicht nur besorgt, dass ihre Schüler ständig von Geräten abgelenkt sind, sondern auch, dass sie die Entwicklung von kritischem Denken und tiefem Verständnis verpassen, wenn Antworten immer nur eine schnelle Suche entfernt sind. Clement erinnert sich an eine Zeit, als er eine Frage stellte wie: "An welcher Stelle schätzt ihr, steht die USA beim BIP pro Kopf?" und die Klasse durch die Lösungsfindung führte. Jetzt hat jemand es online nachgeschlagen, bevor er die Frage zu Ende gestellt hat. Schüler nutzen regelmäßig ChatGPT und sind frustriert, wenn Aufgaben nicht digital bereitgestellt werden, was sie zwingt, Fragen abzutippen, anstatt sie in eine KI oder Suchmaschine zu kopieren.

"Die richtige Antwort durch Google zu finden ist nicht dasselbe wie Wissen zu haben", weist Clement hin. "Und Wissen ist entscheidend, weil es einem erlaubt, etwas in Frage zu stellen, das falsch oder gefälscht klingt. Ohne dieses Wissen könnte man einen Flat-Earth-Blog lesen und denken: 'Das ergibt Sinn', weil einem der Hintergrund fehlt, um es besser zu wissen." Er sorgt sich, dass das Internet bereits mit Verschwörungstheorien und Fehlinformationen überschwemmt ist, ein Problem, das nur wachsen wird, wenn KI überzeugende aber falsche Inhalte generiert, und junge Menschen nicht darauf vorbereitet sind, damit umzugehen.

Während der Pandemie fand Miles seinen jungen Sohn weinend über seinem Schultablett vor. Der Junge steckte bei einem Matheproblem fest, bei dem er die Zahl Sechs mit den wenigsten Token von Eins, Drei und Fünf bilden sollte. Er versuchte es immer mit zwei Dreien, aber der Computer lehnte es ab. Miles schlug Eins und Fünf vor, was funktionierte. "Das ist die Art von Problem, auf die man bei nicht-menschlicher KI stößt", bemerkt Miles und erklärt, dass Schüler oft auf kreative Weise denken, die Maschinen nicht berücksichtigen können.

Aber als ich diese Geschichte hörte, wurde ich von einer anderen Sorge getroffen: Vielleicht ist die wirkliche Bedrohung nicht, sich superintelligenten Maschinen zu unterwerfen, sondern die Kontrolle an solche abzugeben, die nicht so schlau sind.

Häufig gestellte Fragen
Natürlich. Hier ist eine Liste von FAQs zur Idee, dass wir in einer Ära leben, in der Dummheit zu gedeihen scheint, mit klaren und direkten Antworten.

Allgemeine Definitionsfragen

1. Was bedeutet überhaupt eine Ära der gedeihenden Dummheit?
Es bedeutet, dass es sich so anfühlt, als ob irrationale Ideen, schlechtes Urteilsvermögen und offensichtlich falsche Informationen im öffentlichen Leben, online und manchmal in Führungspositionen häufiger, sichtbarer und sogar belohnt werden.

2. Ist Dummheit nicht einfach Teil der menschlichen Natur? Hat es sie nicht immer gegeben?
Ja, Dummheit hat es immer in der menschlichen Geschichte gegeben. Das Gefühl, dass sie jetzt gedeiht, rührt daher, wie schnell und weit sie sich durch Technologie und Medien verbreiten kann, was sie sichtbarer und einflussreicher macht als je zuvor.

3. Was ist der Unterschied zwischen Dummheit und Unwissenheit?
Unwissenheit ist ein Mangel an Wissen oder Informationen. Dummheit ist, wenn man Zugang zu den richtigen Informationen hat, sich aber entscheidet, sie zu ignorieren, gegen das eigene Beste zu handeln oder Dinge zu glauben, trotz überwältigender Beweise