URI:
       # taz.de -- Moratorium über Umgang mit KI: Pause mit Problemen
       
       > Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
       > Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
       
   IMG Bild: Reichen sechs Monate Entwicklungsstopp, um die Gefahren einer KI vorzubeugen?
       
       Berlin taz | Nach dem [1][offenen Brief], in dem zahlreiche
       Tech-Expert:innen ein Moratorium für die [2][Entwicklung Künstlicher
       Intelligenz (KI)] forderten, drängen nun auch die Vereinten Nationen die
       Gesetzgeber weltweit zu Maßnahmen. Die Organisation der Vereinten Nationen
       für Bildung, Wissenschaft und Kultur (Unesco) forderte, ihre Empfehlungen
       zum ethischen Umgang mit KI umzusetzen.
       
       Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken
       könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien
       Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten.
       Alle Staaten weltweit sollten daher die Empfehlungen zum ethischen Umgang
       zügig in nationales Recht übersetzen.
       
       Die Expert:innen aus der Tech-Branche hatten diese Woche in ihrem
       offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene
       KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors
       einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer
       leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre
       Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“,
       heißt es in dem Schreiben.
       
       ## Vorstoß für Moratorium ist umstritten
       
       Eine sechsmonatige Pause solle genutzt werden, um einen regulatorischen
       Umgang mit der neuen Technologie zu finden und beispielsweise
       Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand
       Freitagnachmittag haben rund 1.800 Personen den Brief unterzeichnet.
       
       Unterdessen melden sich auch kritische Stimmen zu dem offenen Brief zu
       Wort: „Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein
       paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp
       genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich
       unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin,
       KI-Forscherin und Vorsitzende der Eidgenössischen Medienkommission.
       
       Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der
       Otto-Friedrich-Universität Bamberg, ist eine der Unterzeichnerinnen. Sie
       glaube zwar nicht, dass eine sechsmonatige Pause hilfreich sei. „Aber ich
       stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf
       die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller
       KI-Technologien hinzuweisen und zu versuchen, in einen breiten
       demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und
       -Experten aus den Forschungsinstituten und den großen Tech-Unternehmen
       aktiv beteiligen.“
       
       ## Am Problem vorbei
       
       KI-Forscherin Jobin kritisiert, dass der offene Brief die Probleme
       aktueller Systeme verharmlose. „Seltsamerweise wird keine Einschränkung
       beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens
       genauso wichtig ist wie die Entstehung.“ Zwar würden die
       Unterzeichner:innen des Briefs auch sinnvolle Maßnahmen wie
       Prüfverfahren oder Kennzeichnungen fordern – allerdings seien unter den
       Erstunterzeichnenden auch Akteure, die solche Schritte für die eigenen
       Unternehmen nie genommen hätten. Zu den Erstunterzeichnenden gehört unter
       anderem Milliardär [3][Elon Musk].
       
       Auch der Rechtswissenschaftler Matthias Kettemann vom Alexander von
       Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht
       alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen
       Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus,
       bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen.
       „Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber
       der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu
       schützen, KI-basierte Diskriminierung zu beenden und globale
       Entwicklungsziele zu erreichen.“
       
       „Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen
       beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo
       Hagendorff, Forschungsgruppenleiter Interchange Forum for Reflecting on
       Intelligent Systems an der Universität Stuttgart.
       
       Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne
       beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu
       verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich
       genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert
       werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von
       KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab.
       
       31 Mar 2023
       
       ## LINKS
       
   DIR [1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
   DIR [2] /ChatGPT-mit-Tuecken/!5924109
   DIR [3] /Elon-Musk/!t5204700
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Technologie
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Kolumne Digitalozän
   DIR Roboter
   DIR Roboter
   DIR Transparenz
   DIR Lesestück Recherche und Reportage
       
       ## ARTIKEL ZUM THEMA
       
   DIR Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief
       
       Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In
       Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen.
       
   DIR KI und Anthropomorphismus: Mensch in der Maschine?
       
       Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
       wir zu menschlichen Metaphern. Aber das birgt Probleme.
       
   DIR ChatGPT mit Tücken: Kein Entkommen vor der KI
       
       Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
       Anfang einer rasanten Entwicklung – die auch Risiken birgt.
       
   DIR OpenAI in der Kritk: Transparent gewaschen
       
       Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
       ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
       problematischer.
       
   DIR ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
       
       Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
       Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch
       etwas Zentrales verlorengeht. Stimmt das?