URI:
       # taz.de -- Künstliche Intelligenz an Universitäten: Eine neue Ära des Studierens
       
       > Über 90 Prozent der Studierenden nutzen im Studium KI. Expert*innen
       > und Beteiligte streiten, ob das der Lehre und dem Lernen hilft oder
       > schadet.
       
   IMG Bild: Studierende, die Chatbots für ein Essay verwenden, erinnern später kaum, was sie geschrieben haben
       
       Berlin taz | Ginge es nach Stephan Krusche, würden alle Menschen in
       Deutschland zu KI-Gurus werden. Weil das aber wohl unmöglich ist, kümmert
       sich der Informatik-Professor der Technischen Universität München (TUM)
       fürs Erste um seine Studierenden und Kolleg*innen.
       
       Wer ihm zuhört, merkt schnell, wie begeistert Krusche auf [1][die neue Welt
       der künstlichen Intelligenz (KI)] blickt. Bereits kurz nach der
       Veröffentlichung von ChatGPT im November 2022 brach für ihn und die gesamte
       Tech-Branche eine „Goldgräber-Stimmung“ aus: Immer tiefer hinein in den
       digitalen Wilden Westen, um „Ideen, die wir nicht umsetzen konnten, weil
       die Technologie limitiert war“, endlich zu realisieren.
       
       Krusche ist überzeugt, dass KI die universitäre Bildung revolutionieren
       kann: Student*innen müssen dank KI-Tutoren nicht mehr ewig auf Feedback
       warten. Überlastete Professoren können sich bei der Erstellung von
       Kursinhalten helfen lassen. Bestenfalls bekommen auch Bürofachkräfte oder
       wissenschaftliche Mitarbeiter*innen künftig weniger stupide Aufgaben
       übertragen – es gibt ja die KI.
       
       Doch nicht jeder denkt so. Manche sehen im Chatbot-Hype den nahenden
       Zusammenbruch der Hochschulbildung. Wo sich beide Seiten einig sind: KI ist
       längst nicht mehr aus den Laptops der Studis wegzudenken.
       
       ## KI inzwischen fester Bestandteil des Studiums
       
       Das bestätigt [2][eine Studie der Hochschule Darmstadt]. Aktuell nutzen
       über 90 Prozent der Studierenden KI-basierte Tools für die Uni – vor zwei
       Jahren waren es noch 63 Prozent. Binnen weniger Jahre, so die Autor*innen,
       habe sich KI „von einer punktuellen Hilfestellung zu einem festen
       Bestandteil des Studiums entwickelt“.
       
       Daraus machen Studierende auch keinen Hehl. Eine Berliner Studentin der
       Politikwissenschaft etwa erzählt der taz, dass sie ChatGPT gerade zur
       Vorbereitung auf eine Prüfung in einem Spanischkurs nutzt. Sie hat dazu
       einen Prompt eingegeben, der die KI auf Basis bisheriger Seminarinhalte
       neue Übungsaufgaben produzieren lässt. Gerade füllt sie Wortlücken mit
       Vokabeln aus. Die KI als Lernassistent? „Ich kann das nur empfehlen“, sagt
       sie.
       
       Auch die Zusammenfassung von Forschungsliteratur durch die KI ist bei
       Studierenden beliebt, um sofort die Kernaussagen bisweilen langatmiger
       Journalartikel vor sich zu haben.
       
       Ein Student der TU München, der anonym bleiben möchte, gibt zu: „Ich habe
       keinen Satz selber geschrieben in meiner Bachelorarbeit.“ Er habe aber
       natürlich selbst die inhaltlichen Überlegungen gemacht, Literatursichtung
       mal ausgenommen, da habe ihm auch eine KI geholfen. Dafür hat er seine
       Stichpunkte der KI gegeben und gesagt: „Paraphrasiere mir das mal in einem
       scientific Ton.“
       
       Grundsätzlich warnen Hochschulen davor, sorglos Aufgaben an KI auszulagern,
       etwa in der Textarbeit. „Ein KI-Modell kann bestenfalls Daten
       zusammenfassen, wobei ich selbst da skeptisch bin“, sagt Martin Wan,
       Projektleiter der [3][Hochschulrektorenkonferenz (HRK)] beim Hochschulforum
       Digitalisierung. „Wenn es heißt, ein KI-Modell fasst Informationen eines
       Textes zusammen, dann fasst es diese in der Regel nicht analytisch
       verstehend zusammen, sondern es kürzt bzw. verkürzt sie algorithmisch.“
       
       Die HRK ist ein Zusammenschluss von 271 deutschen Hochschulen und beteiligt
       sich am Hochschulforum, einem vom Bundesforschungsministerium geförderten
       Thinktank, der sich schwerpunktmäßig mit Herausforderungen durch
       Digitalisierung und KI beschäftigt.
       
       ## Fähigkeiten wie Textverständnis könnten verloren gehen
       
       Aus Sicht von Wan werde insbesondere die Quellenkritik im Zeitalter
       computergenerierten Denkens „noch wichtiger als jemals zuvor“. Er sieht
       seinen Auftrag auch darin, „im Sinne der Persönlichkeitsentwicklung“ darauf
       hinzuwirken, dass Studierende KI-Modelle souverän benutzen.
       
       Die Selbstverständlichkeit, mit der Studis KI einsetzen, stört auch Martina
       Thiele von der Uni Tübingen. Die Professorin für Medienwissenschaft sieht
       die Gefahr einer Abhängigkeit, des Verlernens von Kulturtechniken wie dem
       Lesen und Verstehen längerer Texte oder dem eigenständigen Entwickeln
       schlüssiger Argumentation. Expert*innen sprechen von „De-Skilling“, also
       dem Verlorengehen von Fähigkeiten, weil man sie zu wenig trainiert.
       
       Die Gründe, vermehrt auf KI zurückzugreifen, liegen laut Thiele auch im
       Druck, den viele Studierende verspüren. „Wir sind in so einem Hamsterrad.
       Der Konkurrenzdruck wird immer größer bei Studierenden und
       Wissenschaftler*innen.“ Die Verlockung, zu Hilfsmitteln zu greifen, sei da
       groß.
       
       Thiele sieht weitere negative Begleiterscheinungen der KI, die ihr in der
       Debatte zu kurz kommen. Sie meint, die dazu nötigen Rechenzentren würden
       enorm Energie verbrauchen. Dazu kommen Fragen bei Urheberrechten und
       geistigem Eigentum. „Es ist mehr als bedenklich, eigene Texte, mehr noch
       aber die anderen Autor*innen ungefragt in die KI-Systeme einzuspeisen“,
       meint Thiele, „Wir füttern da wirklich einen Kraken.“
       
       Auch TUM-Professor Krusche erkennt Gefahren der neuen Technologie, jedoch
       immer mit dem Blick auf die von ihm wahrgenommenen Vorteile. „Die guten
       Studenten werden besser“, sagt Krusche; bei schwachen oder mittelmäßigen
       Studierenden, die viel KI nutzen, merke man jedoch, „dass sie nicht die
       gewünschten Kompetenzen entwickeln“.
       
       Ob Krusches Beobachtungen auf alle Studierenden zutreffen, ist bisher kaum
       erforscht. Eine [4][Untersuchung des Massachusetts Institute of Technology
       (MIT)] liefert jedoch Ansatzpunkte. Das MIT untersuchte über mehrere Phasen
       die Hirnaktivität von 54 Teilnehmer*innen beim Schreiben eines Essays.
       Sie wurden in drei Gruppen eingeteilt: Ein Teil durfte beim Verfassen des
       Textes KI benutzen, ein Teil Google samt der auffindbaren Suchergebnisse,
       ein dritter Teil blieb ohne Hilfsmittel. Das Ergebnis: Je mehr externe
       Unterstützung, desto weniger Netzwerkbildung im Gehirn.
       
       Und auch andere Kompetenzen litten: Die erste Versuchsgruppe identifizierte
       sich kaum mit ihren Essays und konnte selbst kurz nach dem Schreibprozess
       nur noch wenig daraus zitieren. Die Autor*innen bilanzieren, dass die
       Hirnaktivität bei denjenigen nachließ, die nur mit KI gearbeitet hatten.
       
       ## „Jedes Fach muss es für sich selbst als Thema wahrnehmen“
       
       Dass routinierte Nutzer*innen Vorteile haben, birgt laut Krusche auch
       Gefahren: Menschen, die KI nicht nutzen können oder wollen, werden
       abgehängt; ähnlich wie es früher mit dem Internet war. Das
       [5][Hochschulforum Digitalisierung] arbeitet daran, im Uni-Kontext
       möglichst viele Menschen mitzunehmen: etwa über „KI-Labs“, in denen
       Lehrende Einsatzszenarien erproben und diskutieren. Insbesondere aber über
       die AG Künstliche Intelligenz, die Herausforderungen der Hochschulbildung
       auslotete [6][und im März Handlungsempfehlungen vorlegte].
       
       „Jedes Fach muss es für sich selbst als Thema wahrnehmen“, mahnt
       HRK-Experte Wan. „KI betrifft nicht nur die Informatiker oder nur die
       Ingenieure. Sondern es betrifft auch den Germanisten genauso wie den
       Philosophen.“ Nicht nur handwerkliche Aspekte der KI gelte es dabei zu
       berücksichtigen, auch die Funktionsweisen der Technologie müssten kritisch
       hinterfragt und im Nutzungsverhalten berücksichtigt werden.
       
       Dass Chatbots bestehendes Herrschaftswissen und unbewusste
       [7][Diskriminierung verstetigen] und somit indirekt gesellschaftliche
       Diskurse beeinflussen könnten, ist auch eine Sorge, die viele Studierende
       umtreibt.
       
       Auch Krusche möchte so viele Studierende und Professor*innen wie
       möglich mit KI vertraut machen und entwickelte innerhalb der
       Open-Source-Lernplattform Artemis einen Chatbot namens Iris, der
       Studierenden bei Übungsaufgaben und einem besseren Verständnis der
       Vorlesungen helfen soll. „Ich sehe vor allem das schnelle Feedback und die
       schnelle Hilfestellung bei den Studenten als Möglichkeit, dass die
       Lernerfahrung besser und die Frustration gesenkt wird“, erklärt Krusche.
       
       Besonders beim Programmieren sei so ein Chatbot hilfreich, denn „Studenten
       müssen sich durch sehr viele Fehlermeldungen durchkämpfen, die sie oft gar
       nicht verstehen.“ Ein TUM-Student, der auch Artemis nutzt und Probleme beim
       Programmieren hatte, kannte Iris nicht. Die Kommunikation zwischen
       Studierenden, Professoren und Universitäten ist auch ein Problem.
       
       ## Studierende wünschen sich stärkere Vorgaben
       
       Denn Studierende wünschen sich vor allem stärkere Vorgaben zur KI-Nutzung –
       deutschlandweit sprechen sich [8][einer Befragung des Centrums für
       Hochschulentwicklung (CHE)] zufolge rund 70 Prozent dafür aus. Das Angebot
       ihrer Hochschulen zum Kompetenzerwerb im Bereich KI bewerten Studierende im
       Schnitt mit 2,7 von 5 Sternen, ein Fünftel mit nur einem Stern.
       
       Das liegt aber nicht daran, dass Universitäten keine Vorgaben oder Angebote
       machen. Dass die Freie Universität (FU) Berlin bereits im Mai 2023 [9][ein
       sechsseitiges Eckpunktepapier] zum Umgang mit KI-basierten Tools
       veröffentlichte, war vielen Studierenden dort schlicht nicht bekannt.
       
       Im FU-Papier wird beispielsweise empfohlen, bei Prüfungen unter Aufsicht
       KI-Tools nicht zuzulassen. Bei Hausarbeiten sollen die jeweiligen
       Prüfungsausschüsse über die Zulässigkeit entscheiden. Ein Einsatz von KI
       bei einem Verbot stelle bei beiden Fällen einen Täuschungsversuch dar.
       
       Bei der Nutzung von KI-Detektoren ist die Uni – [10][im Sinne des
       Forschungsstandes] – zurückhaltend: Es sei „angesichts derzeit nicht
       hinreichender Ergebnisqualität und mangels Überprüfbarkeit der Ergebnisse“
       durch Prüfende zweifelhaft, ob Ergebnisse der Software „prüfungsrechtlich
       Bestand haben können“.
       
       Werden Präsentationen und mündliche Prüfungen zur Alternative? 
       
       In Tübingen bemerkte Thiele durch KI „halluzinierte“ Quellenangaben im
       Literaturverzeichnis, einmal sogar eine nicht existente Studie von ihr
       selbst. Mittlerweile werden Texte direkt im Seminar, mal mit, mal ohne
       KI-Unterstützung geschrieben, Ergebnisse verglichen. Und es gibt mehr
       Präsentationen und mündliche Prüfungen.
       
       Ein Student von der FU spricht sich gegen ein grundsätzliches Verbot von
       KI-Tools bei Prüfungsszenarien aus: „Wer es nutzt und dann auf die Fresse
       fliegt, der soll halt auf die Fresse fliegen.“
       
       24 Jul 2025
       
       ## LINKS
       
   DIR [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
   DIR [2] https://opus4.kobv.de/opus4-h-da/frontdoor/deliver/index/docId/533/file/gpt-dokumentation-final-jvg.pdf
   DIR [3] https://www.hrk.de/
   DIR [4] https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/
   DIR [5] https://hochschulforumdigitalisierung.de/
   DIR [6] https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/01/HFD_AP_86_Kuenstliche-Intelligenz_Grundlagen-fuer-das-Handeln.pdf
   DIR [7] https://thenextweb.com/news/chatgpt-advises-women-to-ask-for-lower-salaries-finds-new-study
   DIR [8] https://www.che.de/2025/ein-viertel-der-studierenden-nutzt-taeglich-kuenstliche-intelligenz/
   DIR [9] https://www.fu-berlin.de/campusleben/lernen-und-lehren/2023/230511-umgang-mit-ki/Eckpunkte_FUB_KI-in-der-Lehre.pdf
   DIR [10] https://arxiv.org/ftp/arxiv/papers/2403/2403.19148.pdf
       
       ## AUTOREN
       
   DIR Marc Tawadrous
   DIR Sönke Gorgos
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Hochschulpolitik
   DIR Digitalisierung
   DIR Social-Auswahl
   DIR Bildung
   DIR Bildungssystem
   DIR Schwerpunkt Stadtland
   DIR Schwerpunkt Künstliche Intelligenz
   DIR GNS
       
       ## ARTIKEL ZUM THEMA
       
   DIR Informatik-Unterricht in Hamburg: Für Mädchen nicht so toll
       
       Ein Schulversuch in Hamburg hat gezeigt, dass Mädchen vom Fach Informatik
       weniger begeistert sind. Eine SPD-Fachgruppe schlägt getrennte Kurse vor.
       
   DIR Kinder benachteiligter Familien: Wenn die Kita schon zu spät ist
       
       Eine Langzeitstudie zeigt, wie stark soziale Ungleichheiten bereits im
       Alter von zwei Jahren sichtbar werden. Was muss der Staat tun?
       
   DIR Boom der Rechenzentren: Platz da für die KI
       
       Bei künstlicher Intelligenz geht es für Internetgiganten wie Google und
       Amazon um riesige Datenmengen. Im Berliner Umland boomen die Rechenzentren.
       
   DIR Entwicklung von KI: Künstliche Intelligenz macht Angst
       
       Computer, die menschenähnlich denken, versprachen die Zukunft. Heute sehen
       das viele anders, so eine neue Studie.
       
   DIR Künstliche Intelligenz: Die Deutschen waren früh dran
       
       1988 entstand das Deutsche Forschungszentrum für KI – also lange Zeit vor
       Google, Amazon und Meta. Warum wurde ChatGPT dennoch in den USA entwickelt?