URI:
       # taz.de -- Cognitive Offloading: Automatisierte Vergesslichkeit
       
       > Wir nutzen Navis und fragen ChatGPT nach Rezepten. Das kann zu weniger
       > kognitiver Leistung führen. Doch wie können wir die Helfer produktiv
       > einsetzen?
       
   IMG Bild: Digitale Anwendungen helfen beim Cognitive Offloading genauso wie analoge Post-its
       
       Eine vorveröffentlichte Studie des Massachusetts Institute of Technology
       (MIT) sorgte kürzlich für Schlagzeilen: „Wer mit ChatGPT arbeitet, häuft
       kognitive Schulden an.“ Für das Experiment schrieben Versuchspersonen über
       mehrere Sitzungen Essays. Ein Teil von ihnen arbeitete eigenständig, ein
       zweiter mithilfe von Suchmaschinen und der dritte durfte ChatGPT einsetzen.
       Letzteren bescheinigten die Forschenden weniger vernetzte Gehirnaktivierung
       und einen schwächeren Lerneffekt. Außerdem fiel es ihnen schwerer, korrekt
       aus ihren eigenen Essays zu zitieren.
       
       Seitdem gab es viel Kritik an der Studie, unter anderem wegen der zu
       kleinen Versuchspersonenanzahl für robuste neurowissenschaftliche
       Erkenntnisse. Doch wenn eine wackelige Studie noch vor der Veröffentlichung
       solche Wellen schlägt, dann trifft sie offensichtlich einen Nerv. In diesem
       Fall zahlt sie auf eine weit verbreitete Befürchtung ein: Macht die Technik
       uns alle blöd? Oder, etwas zurückhaltender gefragt: Was macht das mit
       unserem Denken, wenn wir immer mehr davon an digitale Begleiter abgeben?
       Und wie sollten wir damit umgehen?
       
       Tatsächlich ist die MIT-Studie nicht die Einzige, die sich kritisch mit den
       Effekten von KI-Nutzung beschäftigt. So berichteten etwa polnische
       Forschende in der renommierten Fachzeitschrift The Lancet gerade, dass
       Ärzt*innen, die Darmkrebs-Screenings über drei Monate mit KI-Unterstützung
       absolvierten, danach [1][in ihrer eigenständigen Arbeit weniger aufmerksam
       und engagiert waren]. Ohne Hilfe der Bilderkennung erkannten sie
       Krebserkrankungen jetzt nur noch in 22 Prozent der Fälle – vorher waren es
       noch 27 Prozent.
       
       Mindestens eine weitere Studie befindet, dass Studierende, die
       [2][besonders viel KI einsetzen, selbst weniger kritisch denken] (was
       allerdings auch der Grund für den KI-Einsatz sein könnte). Und selbst
       Studierende, die KI grundsätzlich als hilfreiches Werkzeug bewerten, äußern
       sich [3][langfristig besorgt um ihre Denkfähigkeit.]
       
       ## Sorgen gab es schon vor der KI
       
       Inzwischen hat sich sogar der Papst in die Debatte eingeschaltet, mit dem
       Rat, die Hausaufgaben nicht ChatGPT zu überlassen und KI im Allgemeinen nur
       so einzusetzen, dass sie „[4][dein wahres menschliches Wachstum nicht
       begrenzt]“.
       
       Dabei ist die Sorge um unsere kognitiven Fähigkeiten weitaus älter als
       künstliche Intelligenz. Sie beschäftigt uns bei fast allen Technologien,
       die in der Lage sind, uns Denkarbeit abzunehmen.
       
       So zum Beispiel auch bei Navigationssystemen. Denn die Beeinflussbarkeit
       unserer räumlichen Fähigkeiten ist legendär. Spätestens, seit die Forschung
       erstmals feststellte, dass Londons Taxifahrern beim Navigieren durch die
       örtlichen 26.000 Straßen buchstäblich [5][neue Nervenzellen im Hippocampus]
       sprossen. Heute, 25 Jahre später, [6][sorgt sie sich] nicht nur bei
       Taxifahrern, dass genau diese Fähigkeit mit dem Gebrauch von
       Navigationssoftware nachlässt. Wahrscheinlich, weil wir dank Navi bestimmte
       räumliche Fähigkeiten seltener gebrauchen. Etwa uns [7][eine Karte
       einzuprägen oder sie in unserem Kopf zu rotieren]. „Use it or lose it“ –
       nutze es oder verliere es – so lautet das Arbeitsprinzip unseres Gehirns.
       
       Auch das automatisierte Fliegen kann solche Gewöhnungseffekte auslösen,
       sodass Pilot*innen im Experiment [8][ohne die Unterstützung des
       Autopiloten plötzlich sehr viel ungelenker] sind. Beides sind Folgen des
       sogenannten „Cognitive Offloading“, bei dem wir Denkarbeit an Technologie
       abgeben.
       
       Aber ist das überhaupt ein Problem? Schließlich soll uns die Technik das
       Leben ja erleichtern. Ist es nicht praktisch, wenn irgendwann niemand mehr
       wissen muss, wie man einen Doppeldecker startet, eine Pferdekutsche
       einparkt oder eine Kupplung kommen lässt?
       
       Um zu unterscheiden, an welche Fähigkeiten wir uns klammern sollten und
       welche wir getrost ausrangieren können, lohnt es sich zu verstehen, was im
       Gehirn passiert, wenn wir entsprechende Technologien einsetzen – als
       Gedächtnisstütze oder als automatisierte Helfer – und inwiefern sich der
       bisherige Einsatz von KI davon unterscheidet.
       
       Dabei gilt zunächst einmal festzuhalten, dass Cognitive Offloading keine
       neumodische Angewohnheit unseres Gehirns, sondern eine bekannte und
       bewährte Strategie ist. Immerhin ist diese Welt groß und detailreich und
       unser mentaler Arbeitsspeicher stark begrenzt. Darum ziehen wir beim Zählen
       unsere Finger hinzu, notieren Termine im Kalender und verkünden unseren
       Partner*innen, dass wir beim Einkaufen die Spülmaschinentabs nicht
       vergessen dürfen.
       
       Dieses Abladen schafft Platz im Kopf. Besonders dann, wenn wir viel zu tun
       haben, gestresst sind oder unser Arbeitsspeicher mit dem Alter nachlässt.
       Wer Informationen im Experiment abspeichern darf, kann danach
       [9][beispielsweise schneller wieder neue lernen]. Und wer neben den
       Spülmaschinentabs auch noch den Rest des haushaltstechnischen Mental Load
       an die Partnerin auslagert, hat mehr Kapazitäten für Selbstfindung und
       Filme von Quentin Tarantino.
       
       Seit es Smartphones gibt, tragen wir allerdings schier unbegrenzte Mengen
       an Information in unserer Jackentasche herum. Eine Möglichkeit, die wir
       inzwischen so intensiv nutzen, dass die Forschung von einer Verlagerung der
       Kompetenzen spricht – weg von der Information, hin zur
       Informationsgewinnung. Anders gesagt: Junge Leute wissen aus dem Kopf zwar
       weniger Jahreszahlen, Flussläufe oder Baumarten als frühere Generationen,
       aber sie wissen ausgezeichnet, wie man alles davon online nachschlägt.
       
       Unser Wissen und Können ist dank Internet quasi unbegrenzt und genauso
       scheinen wir uns auch zu fühlen. Denn wenn wir etwas erfolgreich gegoogelt
       haben, halten wir uns danach für klüger und [10][versprühen selbst offline
       mehr Selbstvertrauen bei der nächsten Frage].
       
       ## Auf der Festplatte, aus dem Sinn
       
       Auf der Ebene des Gedächtnisses macht es allerdings durchaus einen
       Unterschied, [11][ob wir uns an ein Konzept erinnern oder nur daran, wie
       man es googelt]. Rufen wir etwa die Erinnerung an ein beliebtes Kochrezept
       wach, dann aktiviert das nicht nur die Webadresse irgendeiner Rezeptseite,
       sondern ein ganzes Netzwerk an Nervenzellen, weckt Assoziationen zu
       Zutaten, Texturen und Gerüchen. Nach dem Gebrauch bleiben diese neuronalen
       Bahnen noch eine ganze Weile sensibilisiert, was uns hilft, neue
       Informationen dazuzulernen oder bekannte zu konsolidieren.
       
       Wenn wir dagegen Informationen nur kurz nachschlagen, um gleich darauf die
       nächste Frage ins Handy zu tippen, bleibt das Wissen um die erste Antwort
       im Kopf wahrscheinlich ungefähr so tief verankert, wie die Backanleitung
       auf dem Pizzakarton (die wir jetzt wieder aus dem Müll fischen müssen, um
       noch mal nach der Minutenzahl zu gucken).
       
       Tatsächlich erscheint schon die Erwartung, dass Informationen uns später
       zur Verfügung stehen, dafür zu sorgen, dass wir sie [12][von Anfang an
       schwächer aufnehmen]. Wer etwa im Museum fotografiert, [13][kann die
       Artefakte danach schlechter beschreiben]. Und wer weiß, dass er eine
       Merkliste später abspeichern kann, erinnert sich vor allem, wo sie
       gespeichert ist.
       
       Damit neue Informationen in unserem Gehirn nicht lose verpuffen, ist es
       also wichtig, hin und wieder gegenzusteuern und sie ganz bewusst
       aufzunehmen. Dabei kann es helfen, sie mit allen Sinnen zu erleben, oder
       einfach, sich danach Zeit zu nehmen, darüber nachzudenken, zu sprechen oder
       zu schlafen. Auch die Verknüpfung mit vorhandenem Wissen lässt sich
       fördern, indem wir neuen Lernstoff bewusst in unterschiedlichen Kontexten
       wiederholen, in der Schule auch bekannt als fächerübergreifendes Lernen.
       
       Wie wichtig es ist, eine Wissensbasis zu schaffen, in die sich neues Wissen
       integrieren lässt, sehen wir auch bei der Automatisierung. Zum Beispiel bei
       unseren Pilot*innen vom Anfang, die ohne Autopiloten erwartbar in
       Schwierigkeiten gerieten. Unerwartet war dagegen, dass diese
       Schwierigkeiten weniger in den routinierten, sonst automatisierten Abläufen
       auftraten als in den komplexen Entscheidungen, dem Ändern von Routen etwa.
       
       Als Erklärung gilt, dass routinierte Abläufe erst dadurch zur Routine
       werden, dass wir sie regelmäßig durchführen. So lange, bis sie ins
       sogenannte prozedurale Gedächtnis übergehen, dessen Inhalt wir
       automatisiert abspulen können. Wie ein Klavierstück, das die Finger nach
       langem Üben wie von selbst spielen.
       
       Zum Problem wird Übungsmangel auch, wenn die Technik nicht ordnungsgemäß
       funktioniert – das erkennen wir am besten mit Erfahrung. So wie eine geübte
       Pflegekraft aufmerkt, wenn ein Computerprogramm ihr plötzlich das
       Hundertfache einer üblichen Medikamentendosis vorschlägt. Oder wir selbst
       bei „14 mal 12“ den Taschenrechner zu Rate ziehen, aber zucken, wenn er
       dann 17.328 ausspuckt. Dass wir unseren Tippfehler bemerken, liegt vor
       allem daran, dass wir diese Rechnung irgendwann oft genug ohne technische
       Hilfe vollbracht haben.
       
       Auch wenn sich ein Prozess vollständig automatisieren lässt, ergibt es oft
       Sinn, ihn zunächst eigenständig zu lernen.Für unser logisches Denken könnte
       dieser Lernprozess wichtiger sein als lange angenommen. Während wir neue
       Abläufe speichern, sucht unser Gehirn unentwegt nach Parallelen und
       Mustern. Die zuständigen Hirnregionen, Basalganglien genannt, die unser
       prozedurales Gedächtnis verwalten, speichern grammatikalische Regeln
       unabhängig von ihrer Sprache. Sie sorgen dafür, dass wir auch im Arabischen
       nicht erst neu lernen müssen, was Subjekt, Prädikat und Objekt sind. Oder
       dass wir exponentielles Wachstum bei Algenpopulationen ähnlich gut
       verstehen wie bei Viren. Je mehr wir wissen, desto leichter fällt es uns,
       neue Informationen in solche Schemata zu integrieren, oder dabei sogar neue
       Erkenntnisse zu generieren.
       
       Wer sich dagegen nur flüchtig mit Informationen auseinandersetzt, dem fehlt
       später nicht nur das Gelernte, sondern auch die Struktur, um neues Wissen
       daran anzuknüpfen.
       
       Das heißt, gerade da, wo es (Sprach-)Regeln und Logik zu durchdringen gibt,
       kommen wir um Eigenarbeit nicht herum. Der Verzicht darauf bedeutet
       wahrscheinlich auch einen deutlichen Preis für die Qualität unseres
       Denkens. Das gilt besonders für Kinder, deren Superkraft das intuitive,
       prozedurale Lernen ist, weshalb sie Sprachen auch einfach aufschnappen
       können, während Erwachsene Vokabeln büffeln.
       
       Macht uns die Technik also eher inkompetent und lässt sich der Schaden
       durch sparsamen Einsatz gerade so begrenzen? Wo sind die Vorteile des
       Informationszeitalters hin? Immerhin gehört es zu unseren großartigsten
       menschlichen Fähigkeiten, dass wir auch auf das Wissen anderer zählen
       können, die besser verstanden haben, wie man Bücher druckt, Krankheiten
       heilt oder Spülmaschinen repariert.
       
       Wie ein gewinnbringender Umgang mit Technologie aussehen kann, hat
       [14][eine US-amerikanische Studie] mit Blick auf politische Entscheidungen
       untersucht. Dafür ließen die Forschenden Hunderte Freiwillige über Monate
       einen fiktiven Vorwahlkampf verfolgen. Ein Teil von ihnen konnte sich dafür
       in einer digitalen Umgebung informieren, in der sie bei jeder Sitzung, wie
       im Netz, alte und neue Nachrichtenartikel auswählen, speichern und
       jederzeit wieder abrufen konnten. Die anderen wurden bei jeder Sitzung mit
       neuen Informationen konfrontiert, die sie nur einmal zu sehen bekamen,
       ähnlich einer Tageszeitung oder der Abendnachrichten. Das Ergebnis:
       Diejenigen in der digitalen Speicherumgebung konsumierten insgesamt weniger
       Informationen, die aber intensiver. Am Ende trafen sie fundiertere
       Wahlentscheidungen, die mehr im Einklang mit ihren politischen Interessen
       standen.
       
       „Die Versuchspersonen nutzen den digitalen Raum als eine Erweiterung ihres
       Gehirns“, sagten die Forschenden. Die Teilnehmenden luden Informationen
       nicht einfach im digitalen Raum ab, sondern machten davon Gebrauch, Artikel
       wieder aufzurufen und noch mal in einem neuen Kontext zu lesen. Sie wussten
       auch mehr über ihre Kandidat*innen, wenn man den Zugang zum Intranet
       abstellte.
       
       Digitale Technik kann also sehr wohl unser Denken und sogar unser
       Gedächtnis beflügeln. Aber nur in dem Ausmaß, in dem wir mitdenken.
       
       Auch andere Erkenntnisse zeigen, dass diese Art hybrider Arbeit mit
       technischen Hilfsmitteln am besten funktioniert. Den Pilot*innen
       empfiehlt die amerikanische Flugaufsicht, halbautomatisch zu steuern. Auch
       beim Navigieren mit GPS können wir unser Gedächtnis auf Trab halten, wenn
       wir uns [15][nicht nur durch Pfeile lenken lassen, sondern uns
       Wegbeschreibungen anhand von Bauwerken und anderen Merkmalen ausgeben
       lassen]. Beim Fotografieren im Museum sorgt das Heranzoomen an spezifische
       Elemente dafür, dass wir uns an das Gesamtobjekt wieder besser erinnern.
       Und selbst in der MIT-Studie vom Anfang dieses Textes konnten am Ende die
       Studierenden am besten aus ihren Essays zitieren, die selbst schreiben
       mussten, aber dabei Suchmaschinen nutzen durften.
       
       ## Arbeit abzuladen ist verführerisch
       
       Womit wir wieder bei den KIs wären. Denn die laden ja gerade dazu ein, uns
       die komplette Arbeit abzunehmen. Warum ein spezifisches Problem
       nachschlagen, wenn mir ChatGPT auf Mausklick ein fertiges Computerscript,
       eine komplette Recherche oder eine E-Mail in fließendem Französisch
       generiert? Warum mich verbessern, wenn ich das vorgefertigte Ergebnis
       vielleicht erst in Jahren erreiche?
       
       Für den Lerneffekt. Auch wenn ich online zum zigsten Mal das gleiche Verb
       nachschlage, habe ich dabei immerhin große Chancen, dass die
       Konjugationsregeln irgendwann hängen bleiben. Wenn ich Texte per Copy and
       Paste einfach übersetze, nicht. Auch wer selbst keine Zeit mit dem
       Schreiben von Texten verbracht hat, wird Schwierigkeiten haben
       einzuschätzen, ob ChatGPTs Essay wirklich besser ist.
       
       Der Verführung, Arbeit abzugeben, werden wir wohl trotzdem des Öfteren
       erliegen. Die Offloading-Forschung zeigt, dass wir im Zweifel fast immer
       zum Abladen tendieren, sodass Versuchspersonen sich [16][selbst zwei Wörter
       zur Sicherheit lieber aufschreiben].
       
       Ein zweiter Knackpunkt in der digitalen Erweiterung unseres Gehirns liegt
       darin, dass Wissen, das wir auf externen Datenträgern speichern, natürlich
       auch externen Risiken unterliegt. So reicht schon die Verschlechterung der
       Google-Suchfunktion, damit Informationen, die wir jederzeit abrufbar
       glaubten, auf einmal schwer zugänglich sind. Wir sollten uns also da, wo es
       drauf ankommt, nie ganz auf die Dienste großer Technikkonzerne verlassen.
       Eine Lektion, die auch Millennials kennen, die sich früher von Facebook an
       Geburtstage erinnern ließen und nach ihrem Ausstieg dort jedes Jahr neu
       austüfteln müssen, wann es Zeit ist, ihren engsten Freund*innen zu
       gratulieren.
       
       Noch weitaus gezielter hat zuletzt die US-amerikanische Regierung
       Informationen aus digitalen Archiven gelöscht – zu Schwarzen oder queeren
       Menschen, Klimawandel oder epidemiologischer Forschung. Eine Sorge, die
       Forschende dazu brachte, nächtelang Daten zu kopieren, um ihr
       externalisiertes Menschheitswissen zu retten, wie aus Alexandrias
       brennender Bibliothek.
       
       Auch in Zeiten allseits verfügbarer Information kann Wissen also
       unwiederbringlich verloren gehen, wenn sich Leute nicht persönlich
       verpflichtet fühlen, es zu bewahren. Die Datengrundlage der gängigen
       Chatbots ist jedoch so undurchsichtig, dass sich solche Verantwortung kaum
       übernehmen lässt. Bei der Nutzung gilt daher, was Papst Leo rät: Arbeite
       so, dass du noch genauso kompetent wärst, wenn die KI heute verschwände.
       
       ## Wenn das Werkzeug lügt
       
       Es gibt noch eine dritte Krux beim Balanceakt, unsere Denkleistung digital
       zu optimieren. Dass die Menschen in der Wahlkampfstudie bessere
       Entscheidungen treffen konnten, lag daran, dass sie Zugang zu korrekten
       Informationen hatten. Wenn wir das Gehirn als offenes System begreifen,
       müssen wir allerdings auch anerkennen, dass es sehr anfällig ist. Etwa für
       Fehlinformationen, Propaganda und Geschichtsfälschung.
       
       Die Qualität der Information ist noch schwerer abzuschätzen, wenn KIs ohne
       Quellenangaben arbeiten oder ihre Arbeitsweise sprunghaft verändern. Wer
       den Chatbot von X/Twitter um Antworten bittet, erhält je nach Version mal
       akkurate Informationen, mal antisemitische Verschwörungstheorien oder den
       Hinweis, Michelle Obama wäre ein Mann. Selbst bei weniger offensichtlich
       gesteuerten KIs fand eine von der BBC veranlasste Studie [17][gravierende
       Fehler in 45 Prozent der Zusammenfassung journalistischer Artikel].
       
       Ein großes Problem, wenn man bedenkt, dass weltweit bereits jetzt [18][15
       Prozent der 25-Jährigen angeben, dass sie Nachrichten von KI-Assistenten]
       beziehen. Und was ist, wenn die Informationen, die eine KI ausgibt, immer
       schlechter werden?Diese sogenannte Enshittification ist für unsere Tendenz
       zum Cognitive Offloading ein Problem, weil wir es gewohnt sind, dass unsere
       externen Hilfsmittel in ihrer Leistung stabil bleiben. Unsere Finger,
       Rechenmaschinen und Notizbücher können nicht alles, aber das, was sie
       können, ist sehr verlässlich. Auch unsere Interaktionspartner*innen
       und ihre Kompetenz können wir mit der Zeit einschätzen. Dagegen steht das
       selbstbewusste Auftreten der Chatbots oft im Widerspruch zur Entwicklung
       ihrer Kompetenz. Wo sie vor einem Jahr beispielsweise noch in 30 Prozent
       der Fälle angaben, Fragen nicht beantworten zu können, sank diese Zahl
       inzwischen nahe null. Im gleichen Zeitraum hat sich die [19][Anzahl
       halluzinierter Antworten auf 35 Prozent verdoppelt].
       
       Ob uns solche qualitativen Unterschiede auffallen, ist fraglich. Eine
       [20][aktuelle Untersuchung zur Arbeit mit KIs] bestätigt: Menschen
       überschätzen systematisch, wie stark künstliche Intelligenz ihre Arbeit
       verbessert. Ironischerweise betraf das vor allem diejenigen, die besonders
       viel mit KI arbeiten, also am ehesten über deren Beschränkungen informiert
       sein müssten.
       
       Wahrscheinlich liegt hier die größte Herausforderung für unser kritisches
       Denken: mit technischen Hilfsmitteln mindestens genauso kritisch umzugehen
       wie mit dem Output unseres Gehirns.
       
       15 Dec 2025
       
       ## LINKS
       
   DIR [1] https://doi.org/10.1016/S2468-1253(25)00133-5
   DIR [2] https://dx.doi.org/10.2139/ssrn.5082524
   DIR [3] https://ideas.repec.org/a/ers/journl/vxxviiy2024i2p1022-1039.html
   DIR [4] https://www.vulture.com/article/pope-leo-ai-homework.html
   DIR [5] https://www.pnas.org/doi/10.1073/pnas.070039597
   DIR [6] https://pmc.ncbi.nlm.nih.gov/articles/PMC11346390/
   DIR [7] https://www.sciencedirect.com/science/article/abs/pii/S0272494418308211
   DIR [8] https://link.springer.com/content/pdf/10.1186/s41235-024-00572-8.pdf
   DIR [9] https://pubmed.ncbi.nlm.nih.gov/25491269/
   DIR [10] https://pubmed.ncbi.nlm.nih.gov/34686595/
   DIR [11] https://www.biorxiv.org/content/10.1101/789529v3.abstract
   DIR [12] https://www.science.org/doi/10.1126/science.1207745
   DIR [13] https://pubmed.ncbi.nlm.nih.gov/24311477/
   DIR [14] https://onlinelibrary.wiley.com/doi/abs/10.1111/pops.12689
   DIR [15] https://www.biorxiv.org/content/10.1101/789529v3.abstract
   DIR [16] https://www.sciencedirect.com/science/article/abs/pii/S1053810015001221
   DIR [17] https://www.bbc.com/mediacentre/2025/new-ebu-research-ai-assistants-news-content
   DIR [18] https://www.odg.it/wp-content/uploads/2025/06/REUTERS-Digital_News-Report_2025_compressed.pdf
   DIR [19] https://www.newsguardtech.com/press/newsguard-one-year-ai-audit-progress-report-finds-that-ai-models-spread-falsehoods-in-the-news-35-of-the-time/
   DIR [20] https://www.sciencedirect.com/science/article/pii/S0747563225002262?via%3Dihub
       
       ## AUTOREN
       
   DIR Franca Parianen
       
       ## TAGS
       
   DIR wochentaz
   DIR Zukunft
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Neurologie
   DIR Automatisierung
   DIR Reden wir darüber
   DIR Social-Auswahl
   DIR Wissenschaft
   DIR wochentaz
   DIR wochentaz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Studie zu Kognition: Warum Denken anstrengend ist
       
       Wenn Menschen gedanklich gefordert sind, fühlen sie sich oft angestrengt.
       Aber wieso machen wir dann trotzdem so gerne Sudoku und Kreuzworträtsel?
       
   DIR Menschliche Denkfalle: Darf’s ein bisschen weniger sein?
       
       Stützräder, Ampeln, Kisten für noch mehr Zeug – um Probleme zu lösen, fügen
       wir Situationen intuitiv Dinge hinzu. Weglassen wäre aber oft hilfreicher.
       
   DIR Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit
       
       Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren.
       Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.