# taz.de -- Cognitive Offloading: Automatisierte Vergesslichkeit
> Wir nutzen Navis und fragen ChatGPT nach Rezepten. Das kann zu weniger
> kognitiver Leistung führen. Doch wie können wir die Helfer produktiv
> einsetzen?
IMG Bild: Digitale Anwendungen helfen beim Cognitive Offloading genauso wie analoge Post-its
Eine vorveröffentlichte Studie des Massachusetts Institute of Technology
(MIT) sorgte kürzlich für Schlagzeilen: „Wer mit ChatGPT arbeitet, häuft
kognitive Schulden an.“ Für das Experiment schrieben Versuchspersonen über
mehrere Sitzungen Essays. Ein Teil von ihnen arbeitete eigenständig, ein
zweiter mithilfe von Suchmaschinen und der dritte durfte ChatGPT einsetzen.
Letzteren bescheinigten die Forschenden weniger vernetzte Gehirnaktivierung
und einen schwächeren Lerneffekt. Außerdem fiel es ihnen schwerer, korrekt
aus ihren eigenen Essays zu zitieren.
Seitdem gab es viel Kritik an der Studie, unter anderem wegen der zu
kleinen Versuchspersonenanzahl für robuste neurowissenschaftliche
Erkenntnisse. Doch wenn eine wackelige Studie noch vor der Veröffentlichung
solche Wellen schlägt, dann trifft sie offensichtlich einen Nerv. In diesem
Fall zahlt sie auf eine weit verbreitete Befürchtung ein: Macht die Technik
uns alle blöd? Oder, etwas zurückhaltender gefragt: Was macht das mit
unserem Denken, wenn wir immer mehr davon an digitale Begleiter abgeben?
Und wie sollten wir damit umgehen?
Tatsächlich ist die MIT-Studie nicht die Einzige, die sich kritisch mit den
Effekten von KI-Nutzung beschäftigt. So berichteten etwa polnische
Forschende in der renommierten Fachzeitschrift The Lancet gerade, dass
Ärzt*innen, die Darmkrebs-Screenings über drei Monate mit KI-Unterstützung
absolvierten, danach [1][in ihrer eigenständigen Arbeit weniger aufmerksam
und engagiert waren]. Ohne Hilfe der Bilderkennung erkannten sie
Krebserkrankungen jetzt nur noch in 22 Prozent der Fälle – vorher waren es
noch 27 Prozent.
Mindestens eine weitere Studie befindet, dass Studierende, die
[2][besonders viel KI einsetzen, selbst weniger kritisch denken] (was
allerdings auch der Grund für den KI-Einsatz sein könnte). Und selbst
Studierende, die KI grundsätzlich als hilfreiches Werkzeug bewerten, äußern
sich [3][langfristig besorgt um ihre Denkfähigkeit.]
## Sorgen gab es schon vor der KI
Inzwischen hat sich sogar der Papst in die Debatte eingeschaltet, mit dem
Rat, die Hausaufgaben nicht ChatGPT zu überlassen und KI im Allgemeinen nur
so einzusetzen, dass sie „[4][dein wahres menschliches Wachstum nicht
begrenzt]“.
Dabei ist die Sorge um unsere kognitiven Fähigkeiten weitaus älter als
künstliche Intelligenz. Sie beschäftigt uns bei fast allen Technologien,
die in der Lage sind, uns Denkarbeit abzunehmen.
So zum Beispiel auch bei Navigationssystemen. Denn die Beeinflussbarkeit
unserer räumlichen Fähigkeiten ist legendär. Spätestens, seit die Forschung
erstmals feststellte, dass Londons Taxifahrern beim Navigieren durch die
örtlichen 26.000 Straßen buchstäblich [5][neue Nervenzellen im Hippocampus]
sprossen. Heute, 25 Jahre später, [6][sorgt sie sich] nicht nur bei
Taxifahrern, dass genau diese Fähigkeit mit dem Gebrauch von
Navigationssoftware nachlässt. Wahrscheinlich, weil wir dank Navi bestimmte
räumliche Fähigkeiten seltener gebrauchen. Etwa uns [7][eine Karte
einzuprägen oder sie in unserem Kopf zu rotieren]. „Use it or lose it“ –
nutze es oder verliere es – so lautet das Arbeitsprinzip unseres Gehirns.
Auch das automatisierte Fliegen kann solche Gewöhnungseffekte auslösen,
sodass Pilot*innen im Experiment [8][ohne die Unterstützung des
Autopiloten plötzlich sehr viel ungelenker] sind. Beides sind Folgen des
sogenannten „Cognitive Offloading“, bei dem wir Denkarbeit an Technologie
abgeben.
Aber ist das überhaupt ein Problem? Schließlich soll uns die Technik das
Leben ja erleichtern. Ist es nicht praktisch, wenn irgendwann niemand mehr
wissen muss, wie man einen Doppeldecker startet, eine Pferdekutsche
einparkt oder eine Kupplung kommen lässt?
Um zu unterscheiden, an welche Fähigkeiten wir uns klammern sollten und
welche wir getrost ausrangieren können, lohnt es sich zu verstehen, was im
Gehirn passiert, wenn wir entsprechende Technologien einsetzen – als
Gedächtnisstütze oder als automatisierte Helfer – und inwiefern sich der
bisherige Einsatz von KI davon unterscheidet.
Dabei gilt zunächst einmal festzuhalten, dass Cognitive Offloading keine
neumodische Angewohnheit unseres Gehirns, sondern eine bekannte und
bewährte Strategie ist. Immerhin ist diese Welt groß und detailreich und
unser mentaler Arbeitsspeicher stark begrenzt. Darum ziehen wir beim Zählen
unsere Finger hinzu, notieren Termine im Kalender und verkünden unseren
Partner*innen, dass wir beim Einkaufen die Spülmaschinentabs nicht
vergessen dürfen.
Dieses Abladen schafft Platz im Kopf. Besonders dann, wenn wir viel zu tun
haben, gestresst sind oder unser Arbeitsspeicher mit dem Alter nachlässt.
Wer Informationen im Experiment abspeichern darf, kann danach
[9][beispielsweise schneller wieder neue lernen]. Und wer neben den
Spülmaschinentabs auch noch den Rest des haushaltstechnischen Mental Load
an die Partnerin auslagert, hat mehr Kapazitäten für Selbstfindung und
Filme von Quentin Tarantino.
Seit es Smartphones gibt, tragen wir allerdings schier unbegrenzte Mengen
an Information in unserer Jackentasche herum. Eine Möglichkeit, die wir
inzwischen so intensiv nutzen, dass die Forschung von einer Verlagerung der
Kompetenzen spricht – weg von der Information, hin zur
Informationsgewinnung. Anders gesagt: Junge Leute wissen aus dem Kopf zwar
weniger Jahreszahlen, Flussläufe oder Baumarten als frühere Generationen,
aber sie wissen ausgezeichnet, wie man alles davon online nachschlägt.
Unser Wissen und Können ist dank Internet quasi unbegrenzt und genauso
scheinen wir uns auch zu fühlen. Denn wenn wir etwas erfolgreich gegoogelt
haben, halten wir uns danach für klüger und [10][versprühen selbst offline
mehr Selbstvertrauen bei der nächsten Frage].
## Auf der Festplatte, aus dem Sinn
Auf der Ebene des Gedächtnisses macht es allerdings durchaus einen
Unterschied, [11][ob wir uns an ein Konzept erinnern oder nur daran, wie
man es googelt]. Rufen wir etwa die Erinnerung an ein beliebtes Kochrezept
wach, dann aktiviert das nicht nur die Webadresse irgendeiner Rezeptseite,
sondern ein ganzes Netzwerk an Nervenzellen, weckt Assoziationen zu
Zutaten, Texturen und Gerüchen. Nach dem Gebrauch bleiben diese neuronalen
Bahnen noch eine ganze Weile sensibilisiert, was uns hilft, neue
Informationen dazuzulernen oder bekannte zu konsolidieren.
Wenn wir dagegen Informationen nur kurz nachschlagen, um gleich darauf die
nächste Frage ins Handy zu tippen, bleibt das Wissen um die erste Antwort
im Kopf wahrscheinlich ungefähr so tief verankert, wie die Backanleitung
auf dem Pizzakarton (die wir jetzt wieder aus dem Müll fischen müssen, um
noch mal nach der Minutenzahl zu gucken).
Tatsächlich erscheint schon die Erwartung, dass Informationen uns später
zur Verfügung stehen, dafür zu sorgen, dass wir sie [12][von Anfang an
schwächer aufnehmen]. Wer etwa im Museum fotografiert, [13][kann die
Artefakte danach schlechter beschreiben]. Und wer weiß, dass er eine
Merkliste später abspeichern kann, erinnert sich vor allem, wo sie
gespeichert ist.
Damit neue Informationen in unserem Gehirn nicht lose verpuffen, ist es
also wichtig, hin und wieder gegenzusteuern und sie ganz bewusst
aufzunehmen. Dabei kann es helfen, sie mit allen Sinnen zu erleben, oder
einfach, sich danach Zeit zu nehmen, darüber nachzudenken, zu sprechen oder
zu schlafen. Auch die Verknüpfung mit vorhandenem Wissen lässt sich
fördern, indem wir neuen Lernstoff bewusst in unterschiedlichen Kontexten
wiederholen, in der Schule auch bekannt als fächerübergreifendes Lernen.
Wie wichtig es ist, eine Wissensbasis zu schaffen, in die sich neues Wissen
integrieren lässt, sehen wir auch bei der Automatisierung. Zum Beispiel bei
unseren Pilot*innen vom Anfang, die ohne Autopiloten erwartbar in
Schwierigkeiten gerieten. Unerwartet war dagegen, dass diese
Schwierigkeiten weniger in den routinierten, sonst automatisierten Abläufen
auftraten als in den komplexen Entscheidungen, dem Ändern von Routen etwa.
Als Erklärung gilt, dass routinierte Abläufe erst dadurch zur Routine
werden, dass wir sie regelmäßig durchführen. So lange, bis sie ins
sogenannte prozedurale Gedächtnis übergehen, dessen Inhalt wir
automatisiert abspulen können. Wie ein Klavierstück, das die Finger nach
langem Üben wie von selbst spielen.
Zum Problem wird Übungsmangel auch, wenn die Technik nicht ordnungsgemäß
funktioniert – das erkennen wir am besten mit Erfahrung. So wie eine geübte
Pflegekraft aufmerkt, wenn ein Computerprogramm ihr plötzlich das
Hundertfache einer üblichen Medikamentendosis vorschlägt. Oder wir selbst
bei „14 mal 12“ den Taschenrechner zu Rate ziehen, aber zucken, wenn er
dann 17.328 ausspuckt. Dass wir unseren Tippfehler bemerken, liegt vor
allem daran, dass wir diese Rechnung irgendwann oft genug ohne technische
Hilfe vollbracht haben.
Auch wenn sich ein Prozess vollständig automatisieren lässt, ergibt es oft
Sinn, ihn zunächst eigenständig zu lernen.Für unser logisches Denken könnte
dieser Lernprozess wichtiger sein als lange angenommen. Während wir neue
Abläufe speichern, sucht unser Gehirn unentwegt nach Parallelen und
Mustern. Die zuständigen Hirnregionen, Basalganglien genannt, die unser
prozedurales Gedächtnis verwalten, speichern grammatikalische Regeln
unabhängig von ihrer Sprache. Sie sorgen dafür, dass wir auch im Arabischen
nicht erst neu lernen müssen, was Subjekt, Prädikat und Objekt sind. Oder
dass wir exponentielles Wachstum bei Algenpopulationen ähnlich gut
verstehen wie bei Viren. Je mehr wir wissen, desto leichter fällt es uns,
neue Informationen in solche Schemata zu integrieren, oder dabei sogar neue
Erkenntnisse zu generieren.
Wer sich dagegen nur flüchtig mit Informationen auseinandersetzt, dem fehlt
später nicht nur das Gelernte, sondern auch die Struktur, um neues Wissen
daran anzuknüpfen.
Das heißt, gerade da, wo es (Sprach-)Regeln und Logik zu durchdringen gibt,
kommen wir um Eigenarbeit nicht herum. Der Verzicht darauf bedeutet
wahrscheinlich auch einen deutlichen Preis für die Qualität unseres
Denkens. Das gilt besonders für Kinder, deren Superkraft das intuitive,
prozedurale Lernen ist, weshalb sie Sprachen auch einfach aufschnappen
können, während Erwachsene Vokabeln büffeln.
Macht uns die Technik also eher inkompetent und lässt sich der Schaden
durch sparsamen Einsatz gerade so begrenzen? Wo sind die Vorteile des
Informationszeitalters hin? Immerhin gehört es zu unseren großartigsten
menschlichen Fähigkeiten, dass wir auch auf das Wissen anderer zählen
können, die besser verstanden haben, wie man Bücher druckt, Krankheiten
heilt oder Spülmaschinen repariert.
Wie ein gewinnbringender Umgang mit Technologie aussehen kann, hat
[14][eine US-amerikanische Studie] mit Blick auf politische Entscheidungen
untersucht. Dafür ließen die Forschenden Hunderte Freiwillige über Monate
einen fiktiven Vorwahlkampf verfolgen. Ein Teil von ihnen konnte sich dafür
in einer digitalen Umgebung informieren, in der sie bei jeder Sitzung, wie
im Netz, alte und neue Nachrichtenartikel auswählen, speichern und
jederzeit wieder abrufen konnten. Die anderen wurden bei jeder Sitzung mit
neuen Informationen konfrontiert, die sie nur einmal zu sehen bekamen,
ähnlich einer Tageszeitung oder der Abendnachrichten. Das Ergebnis:
Diejenigen in der digitalen Speicherumgebung konsumierten insgesamt weniger
Informationen, die aber intensiver. Am Ende trafen sie fundiertere
Wahlentscheidungen, die mehr im Einklang mit ihren politischen Interessen
standen.
„Die Versuchspersonen nutzen den digitalen Raum als eine Erweiterung ihres
Gehirns“, sagten die Forschenden. Die Teilnehmenden luden Informationen
nicht einfach im digitalen Raum ab, sondern machten davon Gebrauch, Artikel
wieder aufzurufen und noch mal in einem neuen Kontext zu lesen. Sie wussten
auch mehr über ihre Kandidat*innen, wenn man den Zugang zum Intranet
abstellte.
Digitale Technik kann also sehr wohl unser Denken und sogar unser
Gedächtnis beflügeln. Aber nur in dem Ausmaß, in dem wir mitdenken.
Auch andere Erkenntnisse zeigen, dass diese Art hybrider Arbeit mit
technischen Hilfsmitteln am besten funktioniert. Den Pilot*innen
empfiehlt die amerikanische Flugaufsicht, halbautomatisch zu steuern. Auch
beim Navigieren mit GPS können wir unser Gedächtnis auf Trab halten, wenn
wir uns [15][nicht nur durch Pfeile lenken lassen, sondern uns
Wegbeschreibungen anhand von Bauwerken und anderen Merkmalen ausgeben
lassen]. Beim Fotografieren im Museum sorgt das Heranzoomen an spezifische
Elemente dafür, dass wir uns an das Gesamtobjekt wieder besser erinnern.
Und selbst in der MIT-Studie vom Anfang dieses Textes konnten am Ende die
Studierenden am besten aus ihren Essays zitieren, die selbst schreiben
mussten, aber dabei Suchmaschinen nutzen durften.
## Arbeit abzuladen ist verführerisch
Womit wir wieder bei den KIs wären. Denn die laden ja gerade dazu ein, uns
die komplette Arbeit abzunehmen. Warum ein spezifisches Problem
nachschlagen, wenn mir ChatGPT auf Mausklick ein fertiges Computerscript,
eine komplette Recherche oder eine E-Mail in fließendem Französisch
generiert? Warum mich verbessern, wenn ich das vorgefertigte Ergebnis
vielleicht erst in Jahren erreiche?
Für den Lerneffekt. Auch wenn ich online zum zigsten Mal das gleiche Verb
nachschlage, habe ich dabei immerhin große Chancen, dass die
Konjugationsregeln irgendwann hängen bleiben. Wenn ich Texte per Copy and
Paste einfach übersetze, nicht. Auch wer selbst keine Zeit mit dem
Schreiben von Texten verbracht hat, wird Schwierigkeiten haben
einzuschätzen, ob ChatGPTs Essay wirklich besser ist.
Der Verführung, Arbeit abzugeben, werden wir wohl trotzdem des Öfteren
erliegen. Die Offloading-Forschung zeigt, dass wir im Zweifel fast immer
zum Abladen tendieren, sodass Versuchspersonen sich [16][selbst zwei Wörter
zur Sicherheit lieber aufschreiben].
Ein zweiter Knackpunkt in der digitalen Erweiterung unseres Gehirns liegt
darin, dass Wissen, das wir auf externen Datenträgern speichern, natürlich
auch externen Risiken unterliegt. So reicht schon die Verschlechterung der
Google-Suchfunktion, damit Informationen, die wir jederzeit abrufbar
glaubten, auf einmal schwer zugänglich sind. Wir sollten uns also da, wo es
drauf ankommt, nie ganz auf die Dienste großer Technikkonzerne verlassen.
Eine Lektion, die auch Millennials kennen, die sich früher von Facebook an
Geburtstage erinnern ließen und nach ihrem Ausstieg dort jedes Jahr neu
austüfteln müssen, wann es Zeit ist, ihren engsten Freund*innen zu
gratulieren.
Noch weitaus gezielter hat zuletzt die US-amerikanische Regierung
Informationen aus digitalen Archiven gelöscht – zu Schwarzen oder queeren
Menschen, Klimawandel oder epidemiologischer Forschung. Eine Sorge, die
Forschende dazu brachte, nächtelang Daten zu kopieren, um ihr
externalisiertes Menschheitswissen zu retten, wie aus Alexandrias
brennender Bibliothek.
Auch in Zeiten allseits verfügbarer Information kann Wissen also
unwiederbringlich verloren gehen, wenn sich Leute nicht persönlich
verpflichtet fühlen, es zu bewahren. Die Datengrundlage der gängigen
Chatbots ist jedoch so undurchsichtig, dass sich solche Verantwortung kaum
übernehmen lässt. Bei der Nutzung gilt daher, was Papst Leo rät: Arbeite
so, dass du noch genauso kompetent wärst, wenn die KI heute verschwände.
## Wenn das Werkzeug lügt
Es gibt noch eine dritte Krux beim Balanceakt, unsere Denkleistung digital
zu optimieren. Dass die Menschen in der Wahlkampfstudie bessere
Entscheidungen treffen konnten, lag daran, dass sie Zugang zu korrekten
Informationen hatten. Wenn wir das Gehirn als offenes System begreifen,
müssen wir allerdings auch anerkennen, dass es sehr anfällig ist. Etwa für
Fehlinformationen, Propaganda und Geschichtsfälschung.
Die Qualität der Information ist noch schwerer abzuschätzen, wenn KIs ohne
Quellenangaben arbeiten oder ihre Arbeitsweise sprunghaft verändern. Wer
den Chatbot von X/Twitter um Antworten bittet, erhält je nach Version mal
akkurate Informationen, mal antisemitische Verschwörungstheorien oder den
Hinweis, Michelle Obama wäre ein Mann. Selbst bei weniger offensichtlich
gesteuerten KIs fand eine von der BBC veranlasste Studie [17][gravierende
Fehler in 45 Prozent der Zusammenfassung journalistischer Artikel].
Ein großes Problem, wenn man bedenkt, dass weltweit bereits jetzt [18][15
Prozent der 25-Jährigen angeben, dass sie Nachrichten von KI-Assistenten]
beziehen. Und was ist, wenn die Informationen, die eine KI ausgibt, immer
schlechter werden?Diese sogenannte Enshittification ist für unsere Tendenz
zum Cognitive Offloading ein Problem, weil wir es gewohnt sind, dass unsere
externen Hilfsmittel in ihrer Leistung stabil bleiben. Unsere Finger,
Rechenmaschinen und Notizbücher können nicht alles, aber das, was sie
können, ist sehr verlässlich. Auch unsere Interaktionspartner*innen
und ihre Kompetenz können wir mit der Zeit einschätzen. Dagegen steht das
selbstbewusste Auftreten der Chatbots oft im Widerspruch zur Entwicklung
ihrer Kompetenz. Wo sie vor einem Jahr beispielsweise noch in 30 Prozent
der Fälle angaben, Fragen nicht beantworten zu können, sank diese Zahl
inzwischen nahe null. Im gleichen Zeitraum hat sich die [19][Anzahl
halluzinierter Antworten auf 35 Prozent verdoppelt].
Ob uns solche qualitativen Unterschiede auffallen, ist fraglich. Eine
[20][aktuelle Untersuchung zur Arbeit mit KIs] bestätigt: Menschen
überschätzen systematisch, wie stark künstliche Intelligenz ihre Arbeit
verbessert. Ironischerweise betraf das vor allem diejenigen, die besonders
viel mit KI arbeiten, also am ehesten über deren Beschränkungen informiert
sein müssten.
Wahrscheinlich liegt hier die größte Herausforderung für unser kritisches
Denken: mit technischen Hilfsmitteln mindestens genauso kritisch umzugehen
wie mit dem Output unseres Gehirns.
15 Dec 2025
## LINKS
DIR [1] https://doi.org/10.1016/S2468-1253(25)00133-5
DIR [2] https://dx.doi.org/10.2139/ssrn.5082524
DIR [3] https://ideas.repec.org/a/ers/journl/vxxviiy2024i2p1022-1039.html
DIR [4] https://www.vulture.com/article/pope-leo-ai-homework.html
DIR [5] https://www.pnas.org/doi/10.1073/pnas.070039597
DIR [6] https://pmc.ncbi.nlm.nih.gov/articles/PMC11346390/
DIR [7] https://www.sciencedirect.com/science/article/abs/pii/S0272494418308211
DIR [8] https://link.springer.com/content/pdf/10.1186/s41235-024-00572-8.pdf
DIR [9] https://pubmed.ncbi.nlm.nih.gov/25491269/
DIR [10] https://pubmed.ncbi.nlm.nih.gov/34686595/
DIR [11] https://www.biorxiv.org/content/10.1101/789529v3.abstract
DIR [12] https://www.science.org/doi/10.1126/science.1207745
DIR [13] https://pubmed.ncbi.nlm.nih.gov/24311477/
DIR [14] https://onlinelibrary.wiley.com/doi/abs/10.1111/pops.12689
DIR [15] https://www.biorxiv.org/content/10.1101/789529v3.abstract
DIR [16] https://www.sciencedirect.com/science/article/abs/pii/S1053810015001221
DIR [17] https://www.bbc.com/mediacentre/2025/new-ebu-research-ai-assistants-news-content
DIR [18] https://www.odg.it/wp-content/uploads/2025/06/REUTERS-Digital_News-Report_2025_compressed.pdf
DIR [19] https://www.newsguardtech.com/press/newsguard-one-year-ai-audit-progress-report-finds-that-ai-models-spread-falsehoods-in-the-news-35-of-the-time/
DIR [20] https://www.sciencedirect.com/science/article/pii/S0747563225002262?via%3Dihub
## AUTOREN
DIR Franca Parianen
## TAGS
DIR wochentaz
DIR Zukunft
DIR Schwerpunkt Künstliche Intelligenz
DIR Neurologie
DIR Automatisierung
DIR Reden wir darüber
DIR Social-Auswahl
DIR Wissenschaft
DIR wochentaz
DIR wochentaz
## ARTIKEL ZUM THEMA
DIR Studie zu Kognition: Warum Denken anstrengend ist
Wenn Menschen gedanklich gefordert sind, fühlen sie sich oft angestrengt.
Aber wieso machen wir dann trotzdem so gerne Sudoku und Kreuzworträtsel?
DIR Menschliche Denkfalle: Darf’s ein bisschen weniger sein?
Stützräder, Ampeln, Kisten für noch mehr Zeug – um Probleme zu lösen, fügen
wir Situationen intuitiv Dinge hinzu. Weglassen wäre aber oft hilfreicher.
DIR Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit
Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren.
Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.