URI:
       # taz.de -- ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
       
       > ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer.
       > Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.
       
   IMG Bild: Gerade für Musiker ist ihre Identität wichtig. Ein Song schafft es leichter auf Playlists, wenn es eine gute Story dazu gibt
       
       Erschrocken und belustigt zugleich war Sebastian Schnitzenbaumer, als er
       ChatGPT nach seinem eigenen Musikprojekt Belp befragte. Denn die künstliche
       Intelligenz antwortete, dass nicht er, der Münchner Musiker, hinter dem
       Pseudonym Belp stecke, sondern ein gewisser Marco Guazzone; und die KI
       untermauerte diese Aussage gleich noch durch ein cooles Schwarzweißbild.
       
       Dieser Marco Guazzone existiert wirklich, es ist ein italienischer Musiker,
       dessen Mainstream-Bombastpop nicht weiter entfernt sein könnte von
       Schnitzenbaumers komplexen, den Erwartungen entgegenlaufenden
       Techno-Tracks. Der fand das alles bald gar nicht mehr lustig.
       
       Belp sei außerdem Teil des Musikkollektivs Loose Wire Head Radio, behauptet
       ChatGPT auch noch. Kein schlechter Name für ein Musikkollektiv – nur leider
       diesmal frei erfunden. „Identitätsklau“ nennt der 46-jährige Münchner DJ
       und Elektronik-Produzent diese Falschinformation. „Und man würde
       normalerweise sagen: Verleumdung“, sagt Schnitzenbaumer. „Ich werde dort
       aufgrund von vielen richtigen Informationen mit einer komplett falschen
       Identität vermischt. Und das mag niemand.“
       
       Er prüft eine Klage gegen [1][OpenAI, das US-Software-Unternehmen], das
       hinter ChatGPT steht. Vor allem aber will Schnitzenbaumer nun eine Debatte
       anstoßen, darüber, was künstliche Intelligenz kann und was nicht.
       
       ## Nichts davon entspricht der Wahrheit
       
       Schnitzenbaumer nutzte ChatGPT 3 für seine Frage, die kostenlose und
       derzeit am meisten genutzte Variante der Sprach-KI. Die neuere
       Bezahlversion ChatGPT 4 funktioniert bereits besser, sie gibt zum Beispiel
       zuverlässig Belps bürgerlichen Namen korrekt an, flunkert aber auch hier
       und da. Einmal ist Belp ansässig in Berlin und nutzt traditionelle
       Instrumente, ein andermal trägt seine Musik meditative Züge. Nichts davon
       entspricht der Wahrheit.
       
       „Halluzinieren“ nennt die Fachwelt das. Der bisher prominenteste Fall:
       US-Juraprofessor Jonathan Turley wurde von ChatGPT fälschlicherweise der
       sexuellen Belästigung beschuldigt. Das Problem: Diese Halluzinationen
       können nicht so einfach erkannt und noch schwerer – genau genommen gar
       nicht – gelöscht oder richtiggestellt werden. Denn sie sind aufs Engste
       verknüpft mit der Arbeitsweise von [2][KI-Programmen wie ChatGPT], mit
       deren Algorithmus.
       
       ChatGPT ist eine KI der Sorte large language model, ein großes
       Sprachmodell. Der Algorithmus wurde mit Millionen von Texten im Internet
       gefüttert. Und liefert nun Informationen mit Textbausteinen, indem er immer
       das nächste wahrscheinlichste Wort sucht. Ob dieses Wort etwas mit der
       Wahrheit zu tun hat oder nicht, kann das Programm gar nicht unterscheiden.
       
       Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche
       Intelligenz in Berlin betont, dass large language models vor allem darauf
       getrimmt sind, neue Texte zu kreieren, die möglichst überzeugend klingen:
       „Wenn man dem Ding jetzt sagt: Aljoscha Burchardt war ein Radrennfahrer im
       Frankreich der 1950er Jahre, dann wird eine plausible Geschichte über einen
       Radrennfahrer im Frankreich der 1950er Jahre geschrieben. Und das sind dann
       eben keine Fakten.“
       
       ## Plausible Erklärung im System
       
       Anders sei das bei allgemein bekannten Personen, über die sich viele
       Informationen im Netz finden. „Wenn man nach Bundeskanzler Olaf Scholz
       fragt“, so Burchardt, „kommt da wahrscheinlich etwas Sinnvolleres raus.
       Aber wenn man nach Personen fragt, über die es nicht viele öffentliche
       Informationen gibt, dann kommt aus dem System einfach das raus, was
       möglicherweise plausibel klingt.“
       
       Für Musikerinnen und Musiker sind solche Halluzinationen besonders fatal,
       sagt Sebastian Schnitzenbaumer. Denn deren Identität sei heute wichtiger
       denn je. „Musiker und Künstler“, so Schnitzenbaumer, „haben aufgrund der
       Entwertung der Kunst in den letzten 10, 20 Jahren gelernt, dass ihr Brand
       und ihre Identität das wertvollste Gut ist.“ Wenn jetzt KI auch noch die
       Identität klaue und umbaue, würde die Möglichkeit der Vermarktung ihrer
       Kunst weiter erodiert.
       
       Tatsächlich sind heute oft die Geschichten hinter den Songs und Alben
       entscheidend, die Erzählung des Künstlers. Ein Song schafft es nämlich dann
       leichter ins Radio und auf wichtige Playlists, wenn es eine gute Story dazu
       gibt. Auch deshalb prüft Schnitzenbaumer eine Klage gegen OpenAI. Die
       Nichtregierungsorganisation NOYB um den Österreicher Max Schrems hat das
       erst kürzlich angestrengt – weil das Programm ein falsches Geburtsdatum
       angab.
       
       Ob die Klage Erfolg haben wird, bleibt zunächst unklar. Aljoscha Burchardt
       sieht in solchen Fällen keine direkte Schuld bei OpenAI. „Das Werkzeug
       wurde falsch eingesetzt“, erklärt er. Es habe schließlich niemand
       behauptet, dass KI-Programme wahrheitsgemäße Artikel schreiben können.
       
       ## Wahrheit suggeriert
       
       Nur über die Argumentation, dass OpenAI nicht gut genug darüber aufgeklärt
       habe, wie ChatGPT funktioniert, sieht er eine mögliche rechtliche Handhabe.
       Die US-Firma „suggeriere vielleicht dadurch, wie das System sich gibt und
       wie das System antwortet, dass es Wahrheit ausgibt“.
       
       Das sieht der Straubinger Bundestagsabgeordnete Erhard Grundl (Bündnis
       90/Die Grünen) ähnlich. Grundl ist Leiter der Arbeitsgemeinschaft Kultur
       und Medien der Grünen-Fraktion im Bundestag und Mitglied im Ausschuss für
       Kultur- und Medienpolitik. „Sein Werk kann ich schützen“, sagt Grundl über
       Schnitzenbaumers Fall. „Aber Fehlinformationen, die dann über ihn in der
       Welt sind – das wird sehr schwierig.“
       
       Die gerade erst verabschiedete KI-Verordnung der EU hat zwar Chatbots wie
       ChatGPT im Blick, greift aber in diesem Fall auch nicht. Grundl glaubt,
       dass es mehr Medienkompetenz braucht. „Das müssen wir fördern. Da kommt die
       Politik ins Spiel.“
       
       ## ChatGBT: falsch, irreführend oder erniedrigend
       
       Eine Bitte um Stellungnahme bei OpenAI zu den Vorwürfen von Sebastian
       Schnitzenbaumer blieb unbeantwortet. Der Sachverhalt ist aber auch in den
       USA ein heikles Thema. Die Aufsichtsbehörde FTC (Federal Trade Commission)
       hat erst vor Kurzem eine Untersuchung von OpenAI gestartet und dem
       Unternehmen einen 20-seitigen Fragenkatalog geschickt. Eine der Fragen
       betrifft die Aussagen von ChatGPT über reale Menschen, die falsch,
       irreführend oder erniedrigend sind.
       
       Bisher ist es noch nicht weit her mit der allgemeinen Medienkompetenz in
       Sachen KI. Denn viele User:Innen nutzen die Programme eben als
       Suchmaschine und Informationsquelle. „Das ist super brutal“, erzählt
       Aljoscha Burchardt. „Das haben wir untersucht: User nutzen das auch, um
       sich über Wahlthemen und Politikerinnen zu informieren. Das hat großes
       Potenzial, Unfrieden zu stiften.“
       
       Hinzu kommt: Künstliche Intelligenz entwickelt sich so rasant wie nie
       zuvor. Gerade noch staunte die Welt über ChatGPT 3, schon gibt es einen
       ganzen Wald von besseren Sprach-KIs. „Wie wir alle wissen, hat die KI ein
       anderes Zeitverständnis als wir“, sagt Erhard Grundl mit Blick auf die
       Regulierung durch die Politik. „Wenn heute etwas beschlossen wird, kann es
       sein, dass das in vielen Bereichen schon wieder überholt ist. Es muss also
       eine ständige Evaluierung stattfinden.“
       
       Mehr Medienkompetenz, mehr Wissen darüber, was künstliche Intelligenz kann
       und was nicht, wie sie funktioniert – das ist im Kern auch das, was der
       Münchner Musiker Sebastian Schnitzenbaumer sich wünscht. Denn noch säßen
       wir einem veralteten Bild von künstlicher Intelligenz auf, sagt er.
       „Popkultur und Science-Fiction-Kultur“, so Schnitzenbaumer, „haben
       Computer, Roboter und Androiden oft in ihrer Unfehlbarkeit dargestellt: Der
       Computer hat immer recht. Mit ChatGPT passiert genau das Gegenteil.“
       
       Wir müssten lernen, dass Computer und Softwaresysteme extrem fehleranfällig
       sind. „Wir haben hier träumende Software, und wir müssen uns einfach daran
       gewöhnen, dass Software bewusst unechte Ergebnisse liefert.“ Sollten wir
       also in Zukunft von mehr oder weniger verträumten KIs sprechen? Oder wäre
       das nicht auf andere Weise irreführend, weil viel zu vermenschlichend?
       
       ## Kein Unterschied von Fakt und Fiktion
       
       Sollten wir überhaupt von künstlicher Intelligenz sprechen, wenn die
       Programme am Ende ja doch wieder nur aus Algorithmen bestehen, die nicht
       einmal bei ihren eigenen Kreationen Fakt von Fiktion unterscheiden können?
       
       Aljoscha Burchardt will jedenfalls nicht mehr von „halluzinieren“ sprechen.
       „Wenn wir doch alle wissen, dass von generativer KI erzeugte Inhalte nicht
       notwendigerweise wahr sind, dann kann man doch einfach sagen, das hier ist
       eine automatisch oder statistisch generierte Antwort.“ Vielleicht braucht
       es das: unaufgeregte Nüchternheit, was künstliche Intelligenz angeht. Auch,
       damit die Musik nicht ein weiteres Mal entwertet wird von den digitalen
       Umwälzungen unserer schönen neuen Welt.
       
       10 May 2024
       
       ## LINKS
       
   DIR [1] /Zwischenbilanz-einer-neuen-Technologie/!6006224
   DIR [2] /Neue-Regeln-fuer-KI/!5994919
       
       ## AUTOREN
       
   DIR Hardy Funk
       
       ## TAGS
       
   DIR Fake News
   DIR Musik
   DIR Identität
   DIR wochentaz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Google
   DIR wochentaz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Pseudonyme
   DIR Schwerpunkt Künstliche Intelligenz
   DIR wochentaz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Künstliche Intelligenz als Suchmaschine: Besser als Google
       
       Google war mal ein Geheimtipp, heute ist die Suchmaschine mit Anzeigen und
       kommerziellen Inhalten überladen. Wie KI die Informationssuche verändert.
       
   DIR Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit
       
       Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren.
       Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.
       
   DIR Nationale KI-Strategie: Unternehmen fehlen KI-Kompetenzen
       
       Die OECD lobt die deutsche Forschung zu künstlicher Intelligenz, aber nicht
       die Umsetzung in den Firmen. Es fehlt an Qualifikationen.
       
   DIR Künstliche Intelligenz: EU-Regeln für KI kommen
       
       Europa beschließt Regeln für den Einsatz von künstlicher Intelligenz. Die
       Vorgaben zu Chatbots wie ChatGPT gelten Kritikern als zu lasch.
       
   DIR KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“
       
       Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann
       Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte Miika
       Blinn.
       
   DIR Detlef Diederichsen Böse Musik: Richtig Schotter mit Johan Röhr und KI
       
       Kaum einer kennt Schwedens meistgestreamten Musiker: wie sich in der
       Anonymität mit KI viel Geld verdienen lässt.
       
   DIR Digitale Sphäre in der Kunst: So düster, dieses Technozän
       
       Es rauscht in der Black Box: 40 Künstler:innen rechnen in der Berliner
       Ausstellung „Poetics of Encryption“ mit der digital durchdrungenen Welt ab.
       
   DIR Captcha-Tests zur KI-Erkennung: Sei ein Mensch!
       
       Captcha-Tests am Computer sollen aufzeigen, ob man ein Mensch ist. Wie
       schön wäre so was im echten Leben?