URI:
       # taz.de -- Regulierung von künstlicher Intelligenz: Mehr Vorgaben für KI gefordert
       
       > Die EU will ihr Regelwerk für künstliche Intelligenz fertig verhandeln.
       > Kurz vor Schluss gibt es nun Streit: Fachleute fordern mehr
       > Verbindlichkeit.
       
   IMG Bild: Die EU-Gremien wollen sich bis Ende des Jahres auf die Details einer Regulierung geeinigt haben
       
       Berlin taz | In der entscheidenden Phase der Verhandlungen über eine
       Regulierung der künstlichen Intelligenz (KI) in Europa ist ein Streit um
       die Regeln für einen besonders wichtigen Teil der neuen Technologie
       ausgebrochen: die Basismodelle, zu denen beispielsweise auch GPT für das
       Erstellen von Texten gehört.
       
       In einem [1][offenen Brief] fordert eine Gruppe namhafter Forscher:innen
       sowie Vertreter:innen aus Wirtschaft und Zivilgesellschaft die
       Bundesregierung auf, sich dafür einzusetzen, dass diese Modelle verbindlich
       reguliert werden. Die Bundesregierung hatte sich zuletzt gemeinsam mit
       Frankreich und Italien dafür eingesetzt, dass es lediglich eine
       Selbstregulierung geben soll. „Wir glauben, dass die Regulierung von
       Grundlagenmodellen im AI Act für ein florierendes und sicheres KI-Ökosystem
       entscheidend ist“, heißt es in dem offenen Brief. Von einer
       Selbstregulierung sei abzuraten.
       
       Die EU-Gremien wollen sich bis spätestens Ende des Jahres auf die Details
       einer [2][Regulierung für KI] geeinigt haben. Derzeit laufen die
       Trilog-Verhandlungen zwischen EU-Kommission, Parlament und Rat. Der AI Act
       soll eine rechtliche Grundlage für die Entwicklung und den Einsatz von KI
       bilden und gleichermaßen ihren Einsatz ermöglichen, wie mögliche Schäden
       abwenden oder minimieren.
       
       Die [3][Probleme sind jetzt schon zahlreich]: von der Möglichkeit, schnell
       große Mengen an Fake News und Propaganda zu generieren über Diskriminierung
       durch KI-basierte Inhalte oder Entscheidungen bis hin zur ungeklärten
       Haftungsfrage – wenn also durch den Einsatz von einem KI-System Schaden
       entsteht.
       
       ## Brief warnt vor zahlreichen Gefahren
       
       Die Basis- oder Grundlagenmodelle („Foundation Models“), um die sich der
       Konflikt nun dreht, sind so etwas wie das Fundament der Technologie: Es
       sind sehr große KI-Modelle, die mit einem breiten Satz an Daten trainiert
       wurden. Basismodelle gibt es nicht nur für Text – wie GPT –, sondern auch
       für Bilder, Videos oder Sprache. Ein Basismodell kann die Grundlage für
       eine Vielzahl von Anwendungen sein. Welche Regeln für diese Modelle gelten
       oder nicht gelten, wird daher entscheidend sein für die weitere
       Entwicklung.
       
       Die Unterzeichner:innen des Briefes argumentieren folgendermaßen: KI
       berge zahlreiche Gefahren, unter anderem auch für die öffentliche
       Sicherheit – etwa durch KI-generierte Desinformation und Manipulation oder
       KI-gestützte Cyberangriffe. „Diese Risiken für die öffentliche Sicherheit
       sind Grundlagenmodellen inhärent“, heißt es in dem Schreiben.
       
       Daher sei es so wichtig, dass es hier verbindliche Regeln gebe. „Eine
       Selbstregulierung würde wahrscheinlich auf dramatische Weise hinter den
       Standards zurückbleiben, die für die Sicherheit von Grundlagenmodellen
       nötig sind.“ Schon ein einziges unsicheres Basismodell könne Risiken für
       die öffentliche Sicherheit bergen.
       
       Unter den Unterzeichnenden sind unter anderem die Turing-Preis-Gewinner
       Yoshua Bengio und Geoffrey Hinton sowie die Informatik-Professorin
       Katharina Morik, die als eine der Vorreiterinnen in der Forschung zum
       Maschinellen Lernen gilt.
       
       Digitalminister Volker Wissing (FDP) hatte dagegen nach einem Treffen mit
       Vertreter:innen baltischer Staaten in der vergangenen Woche die
       gegenteilige Position der Bundesregierung verteidigt: „Wir müssen alles
       tun, um zu verhindern, dass KI sich andere Orte sucht als Europa.“ Weniger
       Regulierung diene der Sicherheit, weil Europa dadurch attraktiver als
       Entwicklungsstandort würde und bei einer Entwicklung hierzulande eher
       europäische Werte berücksichtigt würden.
       
       29 Nov 2023
       
       ## LINKS
       
   DIR [1] https://www.foundation-models.eu/
   DIR [2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487
   DIR [3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Digitalisierung
   DIR EU-Kommission
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR wochentaz
   DIR Digitalisierung
       
       ## ARTIKEL ZUM THEMA
       
   DIR Nach Marathonsitzung: EU einigt sich auf Regeln für KI
       
       Verbote, Pflichten und Geldbußen sind vorgesehen. Doch Verbraucher- und
       Bürgerrechtsorganisationen sind besorgt.
       
   DIR Einsatz von Künstlicher Intelligenz: EU einigt sich auf Gesetz
       
       Am Freitagabend wurden letzte Hürden beseitigt: Die EU bekommt nun einen
       Rechtsrahmen für die Nutzung von KI. Ursula von der Leyen freut sich, der
       BDI mosert.
       
   DIR Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht
       
       Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das
       ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.
       
   DIR Mozilla-Chefin über KI: „Aufregend und beängstigend“
       
       Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin
       Mitchell Baker über Chancen und warum Open Source ökologischer ist.
       
   DIR Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI
       
       Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das
       schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.