July 20, 2025
·
12 Minuten Lesezeit

Was bedeutet KI für die menschliche Intelligenz?

"Cognitive Offloading" ist eine seit Jahrtausenden erprobte Strategie, doch KI könnte sie zu weit treiben. Ein Blick auf die Studienlage.
Shape Image
Blitzzusammenfassung_ (in 30 Sekunden)
  • Generative AI wird mit "Cognitive Offloading" in Verbindung gebracht: Menschen verlagern kognitive Aufgaben an die KI.
  • Mehrere Studien deuten diesen Effekt an – und warnen, dass KI zu einer Verkümmerung der eigenen kognitiven Fähigkeiten führen könnte.
  • Noch ist die Studienlage jedoch nicht allzu robust und Cognitive Offloading ist seit Beginn der Menschheitsgeschichte eine zentrale, nützliche Strategie: Wenn sich die Welt verändert, verändern sich auch kognitive Anforderungen.
  • KI könnte jedoch qualitativ herausstechen, da sie nicht eine konkrete Aufgabe oder Domäne abnimmt, sondern im Zweifelsfall den gesamten Prozess des analytischen Denkens – ihr Cognitive Offloading ist also womöglich kritischer.
  • Praktische Implikationen berühren das Bildungssystem, die Unternehmenswelt und vieles mehr.
  • Individuen und Gesellschaften stehen vor der Aufgabe, Qualitäts- und Effizienzgewinne durch KI mit dem Bewahren der eigenen kognitiven Fähigkeiten und Motivation zu balancieren.

Cognitive Offloading_

(5 Minuten Lesezeit)

KI und Intelligenz

Was ist Intelligenz? Die meisten Definitionen bieten eine kürzere oder längere Variante des folgenden Satzes: Die Fähigkeit, Informationen zu erlangen und zu verarbeiten, als Wissen beizubehalten und zur Problemlösung adaptiv in unterschiedlichen Domänen einzusetzen. Intelligenz ist für (fast) jedes Lebewesen wertvoll. Doch kaum irgendwo ist die Definition von Intelligenz so wichtig wie für die rund 60 Jahre alte Disziplin der Künstlichen Intelligenz, welche immerhin klarstellen musste, was genau sie verkünstlicht.

KI ist inzwischen nahezu allgegenwärtig, dank des Aufstiegs von generativer KI, welcher von großen Sprachmodellen ermöglicht worden ist. Es sind längst nicht nur KI-Entwickler, Proteinforscher, Videospieler oder Ingenieure hinter autonomen Autos, welche Künstlicher Intelligenz begegnen, sondern die Allgemeinbevölkerung: ChatGPT ist heute die meistgedownloadete App der Welt und hat 200 Millionen wöchentliche Nutzer; 34 Prozent der erwachsenen Amerikaner und 43 Prozent der Deutschen haben den KI-Bot Stand Juni 2025 bereits ausprobiert (siehe Grafik unten). Bots anderer Anbieter dürften noch einige Prozentpunkte hinzufügen.

Das wirft die Frage auf, welche Folgen der Einsatz von ChatGPT und Co. für die kognitiven Fähigkeiten des Menschen hat. Für eine vollwertige Antwort ist es noch zu früh, doch erste Studien zeichnen ein tendenziell kritisches Bild, welches allerdings einen nuancierten Blick verdient – auch aufgrund der historischen Präzedenz. In aller Kürze: KI führt fast gesichert dazu, dass Menschen kognitive Aufgaben abschieben – und womöglich die entsprechenden Fähigkeiten einbüßen. Das ist nicht zwangsläufig negativ, sondern kann Ausdruck einer sich verändernden Welt mit verändernden Anforderungen sein. Allerdings gibt es Hinweise darauf, dass KI diese Dynamik in neuer Qualität beschleunigt.

Gut zu wissen: Einige Worte zu Worten. In diesem Explainer meint KI fast ausschließlich Generative AI, da diese für die im Weiteren beschriebenen Effekte am stärksten eine Rolle spielt.Viele Studien und Kommentare zu dem Thema dieses Explainers stammen aus dem englischsprachigen Bereich, wo meist von "critical thinking" die Rede ist. "Kritisches Denken" ist im Deutschen leicht anders konnotiert – normativer und gesellschaftlicher. "Logisches Denken" impliziert eher formale Logik oder mathematisch-rationales Denken. Wir übersetzen in diesem Explainer "critical thinking" also mit "analytischem Denken": der Fähigkeit, Informationen, Argumente und Quellen zu analysieren und zu bewerten; kohärent zu argumentieren; und reflektiert mit Unsicherheiten und Wahrscheinlichkeiten umzugehen.

Die Studienlage

Eine Reihe von Studien kommt zu dem Ergebnis, dass KI "Cognitive Offloading" fördere. Dabei verlagern ("offloaden") Menschen gedankliche Aufgaben an Hilfsmittel, um die eigene kognitive Belastung zu senken. Der Einsatz von KI gestattet es also, weniger nachdenken und sich weniger erinnern zu müssen. In einer Studie der SBS Swiss Business School war Cognitive Offloading der Haupttreiber dafür, dass die 666 Teilnehmer aus Großbritannien signifikant schlechtere Ergebnisse bei Aufgaben des analytischen Denkens aufwiesen, wenn sie KI häufig einsetzten. Wenig überraschend setzten jüngere Teilnehmer (die Studie teilte in drei Altersgruppen auf) häufiger auf KI; sie hatten auch schlechtere Werte beim analytischen Denken.

Microsoft Research befragte wiederum 319 "knowledge workers", welche regelmäßig KI einsetzen, wie sich ihre Aufgaben anfühlen. Die Teilnehmer identifizierten 936 einzelne kognitive Aufgaben, in denen sie KI anwandten, doch befanden, dass nur noch 555 davon analytisches Denken erforderten. Das bedeutet, dass fast 400 Aufgaben oder 40 Prozent im Grunde als stupide wahrgenommen wurden – und beim Rest bestand die intellektuelle Anforderung meist darin, KI-Output zu sichten, zu überprüfen oder Prompts zu justieren. Die intellektuelle Aufgabe nahm also im Grunde verwalterische Natur an; außer dort, wo es darum ging, Fehler und Lücken der KI eigenständig zu korrigieren. Die Studienautoren warnen, dass das "zu einer Verkümmerung der kognitiven Fähigkeiten führen kann, die eigentlich erhalten werden sollten".

Eine andere Studie des Massachusetts Institute of Technology (MIT) schloss 54 studentische Probanden an ein Elektroenzephalogramm (EEG) an. Es ließ die Studenten Essays schreiben, wahlweise "brain-only" oder unter Nutzung von ChatGPT, und maß ihre Gehirnaktivität. Jene Studenten, welche KI einsetzten, wiesen deutlich weniger neuronale Aktivität in den Gehirnbereichen auf, die für Kreativität und Aufmerksamkeit zuständig sind – und taten sich schwer, ihr eigenes Essay zu zitieren. In einer letzten Testrunde wechselten die Probanden aus der brain-only- und der KI-Gruppe die Plätze: Die KI-zu-Gehirn-Gruppe schnitt schlechter ab und wies weniger Gehirnaktivität als die andere Gruppe auf.

Eine chinesische Studie erkannte derweil in einem kontrollierten randomisierten Experiment mit 117 Probanden, dass der Einsatz von ChatGPT in einer Schreibaufgabe zu besseren Ergebnissen führte– aber nicht zu mehr Motivation und nicht zu mehr Wissensgewinn (jedoch auch nicht weniger). Die Forscher warnen vor "metakognitiver Faulheit", bei welcher Lernende stärker auf KI setzen und damit in eine Abhängigkeitsspirale geraten; genau wie das Argument zu Cognitive Offloading.

Und Kreativität?

Auch die Kreativität wird von KI beeinflusst, doch die Ergebnisse sind uneindeutig. Zwei britische Universitäten ließen 300 Probanden achtsätzige "Mikrostorys" schreiben (keiner der Teilnehmer war ein professioneller Autor) und stellten fest, dass leichte oder starke KI-Unterstützung zu als kreativeren und besseren Storys führte – kollektiv betrachtet waren die Storys der KI-Gruppe jedoch ähnlicher zueinander als jene der "brain only"-Gruppe. Ein weiterer Befund: Vor allem Probanden, welche in einem separaten Test als weniger kreativ bewertet wurden, profitierten stark von KI-Unterstützung. Sie machten damit den Abstand zu "organisch kreativeren" Probanden wett.

Eine Studie der Universität Toronto mit 460 Teilnehmern fragte kreative Verwendungsmöglichkeiten für Alltagsgegenstände sowie Wortassoziationen ab. Sie stellte fest, dass die Unterstützung durch KI zu weniger kreativen und ähnlicheren Antworten führte, sobald Probanden in einer Testrunde keinen Zugriff mehr auf KI hatten. Während die erste Studie lediglich beleuchtet, wie KI-Unterstützung die Kreativität von Output beeinflusst (nämlich positiv), bietet die zweite Studie ein Indiz dafür, dass der Einsatz von KI die inhärente menschliche Kreativität senkt – analog zu den Studien zu analytischem Denken von oben.

Gut zu wissen: Studien, welche Cognitive Offloading selbst als Konzept ergründen, gibt es inzwischen reichlich – vor allem seit den 2000ern und 2010ern, als sich die Frage aufdrängte, ob das Internet negative Auswirkungen auf die Intelligenz hat. Wie das Paper "Cognitive Offloading" im Journal "Trends in Cognitive Sciences" aus dem Jahr 2016 zum Abschluss fragt: "Does Google make us stupid?"

Zeit, für etwas Nuance_

(4,5 Minuten Lesezeit)

Ein KI-generiertes Bild von Sokrates mit Taschenrechner.

Die Schwachstellen

Die zitierten Studien haben allerlei Schwachstellen, welche sie selbst anerkennen. Die Studie von Microsoft basiert auf Selbstangaben; sie und die Studie der Swiss Business School können zudem nur eine Korrelation feststellen: Vielleicht schadet KI nicht dem analytischen Denken, vielleicht nutzen Menschen, welche sich mit analytischem Denken schwer tun, einfach häufiger KI? Die MIT-Studie beobachtete zwar die Gehirnaktivität, testete aber nur eine einzige Aufgabe, kontrollierte nicht für einen "Kennenlerneffekt" der Aufgabe und hatte zudem eine kleine sowie homogene Stichprobe (an der letzten Testrunde nahmen nur noch 18 Probanden teil). Die Toronto-Kreativitätsstudie testete Kreativität anhand von nur zwei Aufgaben und zwang Probanden zu einem bestimmten Umgang mit KI.

Cognitive Offloading als evolutionärer Vorteil

Zur Realität gehört auch, dass Cognitive Offloading weder neu noch zwingend schlecht ist. Bereits das Zählen mit Fingern stellt Cognitive Offloading dar, und schon dem Schreiben wurde einst nachgesagt, gesellschaftlich fragwürdig zu sein. Hier etwa der antike griechische Philosoph Sokrates (in den Worten seines Schülers Platon) über das Schreiben:

"Du hast keinen Trank zum Erinnern gefunden, sondern nur einen zum Erinnernlassen.
Du gibst den Schülern nur den Anschein von Weisheit, nicht die Weisheit selbst.
Durch deine Erfindung werden sie vieles hören, ohne es wirklich zu lernen,
und sie werden sich einbilden, viel zu wissen – obwohl sie in Wahrheit kaum etwas wissen.
Und schwer werden sie im Umgang sein,
denn sie wirken nur weise, ohne es wirklich zu sein."

Wer modernere Beispiele sucht, findet sie zuhauf. Der Buchdruck, Taschenrechner, Computer, Excel, Navigationssysteme, Google und Wikipedia – der Mensch nutzt seit Jahrtausenden Cognitive Offloading und hat nie damit aufgehört.

Die Strategie hat zwei klare Vorteile: Erstens erlaubt sie es Menschen, Intelligenz zu "substituieren", wenn sie für bestimmte Probleme nicht ausreicht. Nicht gut im Kopfrechnen? Kein Grund, nicht an der Gesellschaft teilhaben zu können. Älter und vergesslicher geworden? Eine To-do-Liste und eine Navigationskarte helfen aus. Nicht imstande, Zehntausende Datenbankoperationen gleichzeitig durchzuführen? Sind die wenigsten; gut, dass es dafür Software gibt. KI "demokratisiert" ebenfalls gewisse kognitive Aufgaben, bis hin zum analytischen Denken, und holt andere überhaupt erst in den Bereich des Möglichen.

Der zweite Vorteil ist, dass Cognitive Offloading gesamtgesellschaftlich einen effizienteren Einsatz von Intelligenz erlaubt. Menschen sind heute mit hoher Wahrscheinlichkeit schlechter darin, sich zu erinnern, als ihre Vorfahren – doch benötigen sie ein gutes Gedächtnis aufgrund der technologischen Umgebung auch einfach weniger. Wer trotz der Existenz von Erinnerungshilfen enorm viel auswendig lernt, setzt seine Zeit und kognitiven Ressourcen vermutlich nicht völlig effizient ein (als Disclaimer sei hinzugefügt, dass das in bestimmten Aufgabenbereichen selbstverständlich nicht zutreffen mag).

Wenn Menschen Aufgaben an Hilfsmittel auslagern, kann das also einfach ein Ausdruck veränderter kognitiver Anforderungen inmitten einer technologisch gewandelten Welt sein. Der Mensch wurde nicht dümmer, weil er Taschenrechner besaß, er verlagerte seine kognitiven Ressourcen schlicht auf andere Bereiche als das Kopfrechnen. Dass Cognitive Offloading nun beim analytischen Denken geschieht, könnte bedeuten, dass es für die Menschheit zukünftig weniger zentral ist – oder zumindest in anderer Form existieren wird.

KI ist kein Taschenrechner

An diesem Argument bleiben gewisse Zweifel. Erstens ist Intelligenz kein "zero-sum game", sondern das Gehirn funktioniert eher wie ein Muskel: Wird es verwendet, stärkt es sich. Kognitive Ressourcen bleiben zwar endlich und unterliegen somit der Frage, ob sie (mit Hinblick auf die Lösung eines bestimmten Problems) effizient oder ineffizient eingesetzt werden, doch wer offloaded nimmt erst einmal das Risiko hin, Fähigkeit einzubüßen und daraufhin auch Selbstbewusstsein, das Problem ohne KI-Hilfe lösen zu können, zu verlieren.

Zweitens ist KI nicht mit Taschenrechnern, Google oder Büchern zu vergleichen. Es handelt sich um eine "general purpose technology" (GPT), welche nicht nur das Offloading einer konkreten Aufgabe erlaubt, sondern von sehr vielen und entlang ganzer Aufgabenketten. Das gilt vor allem dort, wo agentische KI zum Einsatz kommt, die komplexe Aufgaben schrittweise erledigen und relativ gut mit der Umgebung sowie anderen Werkzeugen (Websites, Formulare, Programme) interagieren kann. Doch bereits "klassische" generative KI erlaubt weitreichendes Offloading.

Als Beispiel kann die Erstellung eines analytisch anspruchsvollen Textes dienen. KI ersetzt hierbei eine Vielzahl an kognitiv anspruchsvollen Aufgaben für den Menschen: die Formulierung einer These und einer Struktur, die Recherche, die Informationsselektion, die Strukturierung der selektierten Information, den Entwurf einer Argumentationsstruktur und schlussendlich das Schreiben des Text selbst. Die KI erkennt, was passende Daten wären, überlegt, wo sie diese suchen muss, findet sie, prüft und bearbeitet sie, überlegt sich die sinnvollste Visualisierungsform, erstellt eine entsprechende Grafik und pflegt sie in das Argument und Gesamtnarrativ des Textes ein. Ein großer, analytischer Text mitsamt visualisierter Daten könnte entstehen, ohne dass ein Mensch auch nur einen Gedanken jenseits des Eintippens des Prompts leisten musste (und unter Umständen muss der Prompt nicht einmal formuliert und iteriert werden, wenn zum Beispiel eine Essay-Aufgabenstellung eingefügt wird).

KI hat also das Potenzial, zu einem qualitativ anderen Cognitive Offloading als frühere Technologien zu führen. Es sind womöglich nicht mehr nur spezifische Fähigkeiten wie das Erinnern oder Domänen wie das Zählen betroffen, sondern vielschichtige Fähigkeiten wie das analytische Denken. Ein selbstverstärkender Effekt könnte die Folge sein: Je weniger Menschen imstande sind, analytisch zu denken, umso weniger vertrauen sie sich selbst und umso mehr vertrauen sie KI-Outputs – womit sie mehr Anreiz besitzen, KI zu nutzen und ihre eigenen Fähigkeiten nicht zu trainieren.

Dieser selbstverstärkende Kompetenzen- und Selbstbewusstseinsverlust deutet auch an, dass es nicht tragbar wäre, wenn Menschen ihre Intelligenz nur noch für die Beseitigung von Fehlern und Handhabung von Einzelfällen einsetzen würden. Mangels Übung in Routineaufgaben besäßen sie gar nicht mehr die kognitive Fähigkeit, besagte Fehler und Ausnahmen handhaben zu können. Davor warnt auch die Microsoft-Studie ausdrücklich – hebt aber auch hervor, dass das im Grunde für jede Automatisierung gilt, also bereits für viele Erfindungen der letzten Jahrzehnte. Nur automatisierten diese eben nie das analytische Denken selbst.

Praktische Implikationen_

(3 Minuten Lesezeit)

Auf der Schulbank und im Großraumbüro

Die aktuelle Welle von Generative-AI-Anwendungen ist noch recht jung. Langfristige Effekte auf das Gehirn des Menschen und die kollektive Intelligenz der Menschheit sind somit zwangsweise spekulativ. Gänzlich entrückt ist die Diskussion aber nicht. Professoren und Lehrer klagen scharenweise über Schüler und Studenten, welche auf KI setzen und analytische Denkfähigkeiten vermissen lassen; Umfragen bestätigen zumindest den Einsatz von KI. Schrille Kritik an der jüngeren Generation ist seit Jahrtausenden eine Konstante, doch hat sich selten bewahrheitet. Bejaht man allerdings die spekulierten negativen Auswirkungen von KI auf das analytische Denken, so wären Kinder und Jugendliche aufgrund ihres plastischeren Gehirns wohl umso stärker betroffen.

Auch für Unternehmen ist der Verlust kognitiver Fähigkeiten und Selbstbewusstseins eine potenzielle Gefahrenquelle. Laut einer McKinsey-Umfrage aus 2024 prüft etwas mehr als die Hälfte aller Unternehmen weniger als 60 Prozent ihrer KI-generierten Outputs; ein Drittel der Firmen prüft nicht einmal 20 Prozent (siehe Grafik oben). Das schafft Fehlerquellen, denn die Anfälligkeit von KI-generiertem Output ist hinreichend (oder eben doch nicht hinreichend) bekannt. Womöglich sinkt die Rate der "blinden Vertrauenden", wenn Firmen und Arbeiter den Umgang mit KI mehr erlernen und Richtlinien einführen; oder sie steigt, weil sich Arbeiter gemäß der oben diskutierten Dynamiken an mehr Cognitive Offloading gewöhnen – und immer weniger überhaupt dazu imstande sind, KI-Output zu hinterfragen und zu korrigieren.

Gut zu wissen: Nicht so recht in diese Diskussion passt eine jüngste Studie der NGO METR, welche zu dem überraschenden Ergebnis kam, dass erfahrene Entwickler um 19 Prozent langsamer arbeiteten, wenn sie ein KI-Coding-Tool (Cursor) einsetzten. Der Negativeffekt geschah nicht, weil KI die Fähigkeiten der Entwickler beschädigt hatte, sondern weil die verwalterischen Aufgaben – Prompten, Prüfen, erneut Prompten, Korrigieren – viel Zeit kosteten. Je besser KI im Coden wird, umso geringer könnte der Aufwand hier ausfallen. Interessant ist jedoch, dass die Entwickler nach Abschluss der Aufgaben dachten, dass sie dank der KI weniger Zeit benötigt hätten.

Der Umgang mit der neuen Welt

Angenommen, KI führt tatsächlich zu kritischem Cognitive Offloading und zu langfristigen Negativeffekten. Was tun? Die eine Lösungsebene ist strukturell: Universitäten und Schulen müssen sich an die neueste Technologie anpassen, so wie sie es in der Vergangenheit taten. Mathematische Aufgaben konnten ab der Massenmarktphase von Taschenrechnern in den 1970ern schwerer werden, da Schüler weniger Zeit und kognitive Ressourcen auf das Kopfrechnen aufbringen mussten. Heute ist das simple Verfassen eines Essays im Open-Book-Verfahren endgültig keine zeitgemäße testbare Aufgabe mehr; der Anreiz zum Offloaden ist für Schüler und Studenten einfach zu hoch.

Anbieter von KI-Bots könnten ihre Dienste anpassen, um Alternativen zu Cognitive Offloading zumindest reizvoller zu machen: Ein Chatbot, welcher etwa nur den Ball zurückspielt, wenn der Nutzer zuvor einen eigenen Antwortvorschlag unterbreitet, oder welcher Fragen stellt, um einen Diskurs anzuregen. Dass Google, OpenAI und Co. ihren Diensten derartige Einschränkungen verpassen, ist praktisch ausgeschlossen; ein freiwillig auswählbarer Modus wäre dagegen betriebswirtschaftlich harmlos.

Ein freiwilliger "Brain-first"-Modus müsste vom Nutzer allerdings erst ausgewählt werden, und das zeigt die andere Lösungsebene: Der individuelle Mensch kann für sich Schritte ergreifen, Cognitive Offloading einzuhegen. Der intuitivste Ansatz, welcher sich KI und strategischem Offloading nicht komplett versperrt, wäre wohl, die KI ausdrücklich als Assistenz einzusetzen: Statt sie auf komplette Aufgaben loszuschicken ("Schreibe folgendes Essay [...]"), würde sie nur noch für Teilaufgaben oder interaktives Feedback genutzt werden ("Was sind grundsätzliche Verbesserungsvorschläge für folgenden Absatz?"). Der menschliche Nutzer behält die Federführung und gibt weder Lerneffekte und neuronale Aktivität noch die möglichen Qualitäts- und Effizienzgewinne durch KI gänzlich auf.

Am Ende des Tages dürfte es ein kniffliger Balanceakt werden: Die Chancen auf Effizienz- und Qualitätsgewinne durch KI einerseits; der Wunsch, die eigene kognitive Fähigkeit und Motivation (als Gegenteil von Faulheit) zu bewahren, andererseits. In der Vergangenheit war es stets eine schlechte Idee, den Alarmisten zuzustimmen, welche hinter technologischen Entwicklungen die Verdummung des Menschen befürchteten. Auch bei KI verdient diese Behauptung viel Vorsicht. Klar ist jedoch schon jetzt, dass Künstliche Intelligenz kein Taschenrechner ist.

Weiterlesen

Andere Explainer zu KI

Wie steht es um die Adoption von KI? (2024)

Die Vergangenheit, Gegenwart und Zukunft der Künstlichen Intelligenz (2023)

Apple am entscheidenden Moment (2024)

Nvidia auf dem Gipfel (2024)

OpenAI und der Streit um die Zukunft der KI (2023)

Andere Explainer zu Technologie

Die Zukunft der Atomenergie: Small Modular Reactors (2024)

Novo Nordisk und das Ende der Adipositas (2024)

Arm: Der wichtigste Chipdesigner der Welt (2023)

Die Zukunft der Atomenergie: Die Endlagerung (2023)

Das Ende der Atomenergie (2023)

Die Weltraumindustrie und der Staat (2022)

Die Privatisierung der Raumstationen (2021)

Die Chipindustrie und die Juwelen der Moderne (2021)

Die goldene Ära der Cyberunsicherheit (2021)

Future of Food (2021)