URI:
       # taz.de -- KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“
       
       > Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann
       > Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte
       > Miika Blinn.
       
   IMG Bild: Die rechtliche Lage zu Videoüberwachung mit KI-Gesichtserkennung, hier bei einer Messe in China, bleibt in der EU vertrackt
       
       taz: Herr Blinn, die neuen EU-Regeln für künstliche Intelligenz (KI) sind
       nun final beschlossen. Wann werden Verbraucher:innen etwas davon
       mitbekommen? 
       
       Miika Blinn: Die ersten Vorschriften treten schon in einem halben Jahr in
       Kraft. Damit werden KI-Systeme mit nicht tolerierbarem Risiko verboten, zum
       Beispiel das Anlegen von Gesichtsdatenbanken mit Bildern aus dem Internet.
       Richtig etwas merken wird man spätestens in zwei Jahren. Dann müssen
       [1][zum Beispiel mit KI erzeugte Bilder], Videos oder Texte gekennzeichnet
       werden. Und: Firmen müssen dann auch kennzeichnen, wenn sie zum Beispiel in
       einem Service-Chat oder bei einer Telefon-Hotline KI einsetzen. Das kann
       zum Beispiel mit einem Siegel geschehen, mit einem Button, einem
       Wasserzeichen oder, bei der Hotline, einer kurzen Erklärung am Anfang des
       Anrufs.
       
       Es werden sich aber wie immer nicht alle daran halten. 
       
       Ja, davon ist auszugehen. Schon heute ist es bei IT-Sicherheit ein
       Katz-und-Maus-Spiel: Kriminelle und auch manche Unternehmen versuchen,
       Lücken auszunutzen oder Regeln zu umgehen. Aber das ist kein Grund, auf
       solche Vorschriften zu verzichten. Schließlich ist es auch im Interesse der
       Unternehmen, dass Verbraucher:innen KI vertrauen und selbstbestimmt
       über die Nutzung entscheiden können. Und das geht nicht, wenn die Industrie
       einfach machen kann, was sie will. Und es null Transparenz gibt.
       
       Es klingt aber trotzdem nicht nach einer großen Verbesserung. 
       
       Ist es aber. Der AI Act bringt schon deutliche Verbesserungen für
       Verbraucher:innen. Zum Beispiel ist vorgeschrieben, dass
       Verbraucher:innen sich beschweren können müssen. Also eine Behörde, an
       die sich Betroffene wenden können, wenn sie zum Beispiel glauben, dass ein
       KI-System gegen die Regeln verstößt. Diese Beschwerdestelle muss die
       Bundesregierung innerhalb eines Jahres aufbauen und sie sollte möglichst
       niedrigschwellig und unbürokratisch sein. Und Behörden dürfen KI-Systeme
       auch überprüfen. Außerdem dürfen zivilgesellschaftliche Organisationen und
       Verbraucherverbände klagen, wenn sie Verstöße gegen den AI Act sehen.
       
       Wie soll so eine KI-Aufsichtsbehörde schlagkräftig werden, auch mit
       Hinblick auf kompetentes Personal? 
       
       Der Markt an KI-Fachleuten ist tatsächlich sehr leergefegt – und der
       öffentliche Dienst zahlt natürlich viel schlechter als die Industrie. Wenn
       jetzt die zuständige KI-Aufsichtsbehörde und vielleicht noch andere
       öffentliche Stellen KI-Expert:innen suchen, machen sie sich auch noch
       gegenseitig Konkurrenz. Wir schlagen daher ein nationales Kompetenzzentrum
       für KI und algorithmische Systeme vor. Das kann die Expertise bündeln und
       Expert:innen an andere Behörden ausleihen. Wenn es dann zum Beispiel
       einen großen Finanzskandal gibt, bei dem KI eine Rolle spielt, sind die
       Fachleute bei der Bundesanstalt für Finanzdienstleistungsaufsicht, und wenn
       was im [2][Medizinbereich] passiert, beim Bundesinstitut für Arzneimittel
       und Medizinprodukte.
       
       Sprechen wir über zwei Punkte, die während der Verhandlungen umstritten
       waren. Das eine ist die Haftungsfrage: Wenn eine KI, zum Beispiel eine
       medizinische Diagnose-KI, eine falsche Entscheidung trifft, muss jemand
       dafür haften. Wie sieht es da aus? 
       
       Das ist ein Problem. Die Haftungsfrage wurde nämlich auf eine Richtlinie
       ausgelagert – die liegt aber aktuell auf Eis. Wir hoffen, dass die nach der
       EU-Wahl schnell kommt, aber mit anderen Inhalten, als dort bislang
       drinstehen. Die bislang vorgesehenen Hürden sind viel zu hoch, da müssten
       faktisch Verbraucher:innen beweisen, dass das KI-System fehlerhaft
       war. Das ist nicht möglich. Wir brauchen eine Beweislastumkehr: Der
       Hersteller des Systems muss beweisen, dass es keinen Fehler gab.
       
       Dann gibt es bei der Haftung gerade ein Loch? 
       
       Ja. Es gibt natürlich die neue Produkthaftungsrichtline, die auch Software
       umfasst. Aber in Bezug auf KI sind auch hier die Hürden zu hoch. Wir
       brauchen also dringend eine Regelung, die es Verbraucher:innen
       ermöglicht, eine Kompensation zu erhalten, wenn sie einen Schaden durch KI
       erlitten haben.
       
       [3][Ein weiterer Punkt, der in den Verhandlungen stark umstritten war:
       Überwachung.] Wie können Menschen im öffentlichen Raum künftig überwacht
       werden? 
       
       Das ist tatsächlich vertrackt. Grundsätzlich sagt der AI Act: Staatliche
       Stellen dürfen keine biometrische Videoüberwachung im öffentlichen Raum
       einsetzen.
       
       Etwa Gesichtserkennung. 
       
       Genau. Es gibt aber zahlreiche Ausnahmen für die Strafverfolgung. Ein
       anderes großes Problem ist: Es gibt eine riesige Ausnahme, denn private
       Akteure dürfen biometrische Videoüberwachung machen. Zum Beispiel an
       Tankstellen oder in Einkaufszentren können also künftig Kameras hängen,
       hinter denen eine biometrische Überwachung steckt. Und das, obwohl bereits
       in Sachen konventioneller Videoüberwachung Wildwuchs herrscht und jeder
       macht, was er will. Verbraucher:innen sind dem weitgehend schutzlos
       ausgeliefert. Beschweren Sie sich mal bei der Datenschutzbehörde über jede
       Kamera, an der Sie vorbeilaufen – das ist ein Vollzeitjob.
       
       Die EU-Mitgliedstaaten können biometrische Videoüberwachung durch Private
       aber im nationalen Recht verbieten. 
       
       Genau, das ist möglich und es wäre sehr wichtig, dass Deutschland das
       macht.
       
       Haben Sie da schon Signale aus der Politik? 
       
       Bislang nicht – aber wir werben dafür und hoffen, dass gerade Akteure,
       denen die Freiheitsrechte wichtig sind, hier mitziehen.
       
       Wenn die Regeln schließlich wirksam werden, sind schon wieder ein paar
       Jahre vergangen. Wird die Welt dann, in Bezug auf KI, nicht schon wieder
       ganz anders aussehen? 
       
       Das ist gut möglich. Aber der AI Act bietet die Möglichkeit, dass die
       EU-Kommission mit sogenannten delegierten Rechtsakten Anpassungen vornimmt.
       Wenn dann zum Beispiel ein neues, gefährliches KI-System entwickelt wird,
       dann ließe sich das zu den verbotenen Hochrisikosystemen einsortieren.
       
       21 May 2024
       
       ## LINKS
       
   DIR [1] /Werben-mit-virtuellen-Influencern/!5990820
   DIR [2] /KI-und-die-fruehe-Krebserkennung/!6001312
   DIR [3] /Deutschland-muss-KI-Regeln-umsetzen/!6007821
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Digitalisierung
   DIR Europäische Union
   DIR Verbraucherschutz
   DIR Internet
   DIR EU-Richtlinien
   DIR GNS
   DIR wochentaz
   DIR Gesichtserkennung
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Wahl-O-Mat
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Fake News
       
       ## ARTIKEL ZUM THEMA
       
   DIR Europäische KI-Verordnung: KI-Kängurus nur mit Wasserzeichen
       
       Ein Teil der KI-Verordnung tritt in Kraft, Anbieter müssen künstliche
       Intelligenz ab August transparent machen. Die Industrie will andere Regeln
       aufweichen.
       
   DIR Gesichtserkennung im Internet: Faeser will Fotofahndung erlauben
       
       Die Polizei soll öffentliche Fotos „biometrisch abgleichen“ dürfen, um
       Personen zu identifizieren. Wie genau, das lässt Faesers Gesetzentwurf
       offen.
       
   DIR „Meta AI“ Assistent: Training mit deinen Daten
       
       Der Facebook- und Instagram-Konzern Meta will Daten von Nutzer:innen für
       das Training von KI nutzen. Ein Datenschutzverein legt Beschwerde ein.
       
   DIR Vor Inkrafttreten der EU-Regeln: Werkzeugkoffer gegen KI-Auswüchse
       
       Verbände bereiten sich darauf vor, das neue EU-Recht zu Künstlicher
       Intellligenz durchzusetzen, welches in Kürze in Kraft tritt. Doch es gibt
       Lücken.
       
   DIR Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz
       
       Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt
       eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist.
       
   DIR Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an
       
       Der Europarat will die Menschenrechte vor einem Missbrauch durch KI
       schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt
       Kritik.
       
   DIR ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
       
       ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer.
       Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.