URI:
       # taz.de -- Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe
       
       > Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche
       > Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum
       > das gut ist.
       
   IMG Bild: Soll das menschliche Gehirn nicht ersetzen, sondern die Arbeit erleichtern: künstliche Intelligenz. Im Bild: das Kunstwerk «Bion» des US-amerikanischen Künstlers Andrew H. Fagg
       
       taz: Frau Bryson, immer mehr Unternehmen wollen in ihrer Arbeit vermehrt
       auf künstliche Intelligenz setzen: Facebook und Google, um extremistische
       Inhalte einzudämmen, die New York Times, um ihre Kommentarfunktion zu
       moderieren. Was ist damit gemeint? 
       
       Joanna Bryson: Manche Dinge, die im Internet geteilt werden, sind so
       schrecklich, dass sie nie ein Mensch zu Gesicht bekommen sollte.
       Irgendjemand muss diese Inhalte aber prüfen und entfernen. Künstliche
       Intelligenz ist sehr gut darin, große Mengen von Inhalten zu durchsuchen –
       die Suchmaschine Google tut schließlich nichts anderes. Maschinen für diese
       Aufgabe zu benutzen hat also zwei Vorteile: Erstens sind sie schnell und
       effektiv. Zweitens ersparen sie Menschen eine schreckliche Aufgabe.
       
       Wie kann die künstliche Intelligenz erkennen, welche Inhalte unerwünscht
       sind? 
       
       Sie kann ziemlich gut raten, um was für eine Art von Post es sich handelt.
       Bei Kommentaren kann sie prüfen, ob Schimpfwörter enthalten sind. Oder –
       was für die New York Times wichtig sein könnte, bei der Masse an
       Kommentaren –, wie qualitativ hochwertig ein Beitrag ist. Es gibt schon
       Programme, die mit Hilfe von Machine-Learning-Methoden Highschool-Aufsätze
       benoten können.
       
       Beim Machine Learning identifiziert die Maschine anhand vieler Beispiele
       komplexe Regeln, die sie dann auf neue Inhalte anwenden kann. Für Google
       und Facebook geht es zum Beispiel darum, terroristische Videos zu finden. 
       
       Genau, mit Videos funktioniert das sehr gut, vor allem bei Terrorismus:
       Denn der ist eine einzige riesige Propagandamaschine. Die Terroristen
       wollen Menschen überzeugen, sich ihnen anzuschließen, also dreht sich in
       ihren Videos viel um Identifikation mit einer Gruppe. Diese wird wiederum
       gestärkt durch bestimmte Stilmittel, Sprüche, Symbole, die sich ständig
       wiederholen. Das macht es einer Maschine ziemlich leicht, sie zu erkennen.
       Trotzdem machen die Maschinen Fehler. Es sollte also immer die Möglichkeit
       geben, Einspruch gegen die Entscheidung einzulegen.
       
       Die meistens sozialen Netzwerke haben bereits solche Revisionsmechanismen.
       Die New York Times betont außerdem, dass die Maschinen nur beim groben
       Vorsortieren helfen sollen. In einem zweiten Schritt soll ein Mensch die
       Entscheidung prüfen. 
       
       Auch Menschen sind nicht perfekt. So oder so ist es eine gruselige
       Vorstellung: Einerseits sollen die Betreiber der Plattformen Verantwortung
       für die Inhalte übernehmen. Andererseits: Möchte man wirklich, dass ein
       soziales Netzwerk entscheiden kann, was gesagt werden darf und was nicht?
       Sollte die Regierung das entscheiden? Wir müssen uns als internationale
       Gemeinschaft überlegen, wer in welchem Ausmaß diese Kontrollfunktion
       übernehmen soll.
       
       Forscherinnen von Google und Microsoft haben gerade eine Initiative
       gegründet, um diskriminierender künstlicher Intelligenz auf die Schliche zu
       kommen. Ist es nicht eigentlich besser, wenn solche Entscheidungen von
       Algorithmen getroffen werden, weil sie objektiver sind?
       
       Sie stellen die Frage genau falsch herum. Sie dürfen sich die Maschine
       nicht als objektiv vorstellen, nicht einmal als Akteur. Die Maschine ist
       nichts als ein Werkzeug. Jemand schreibt ein Programm und damit auch
       Regeln, die die Maschine anwendet. Und wenn die Maschine anhand
       menschlicher Entscheidungen lernt, übernimmt sie die Vorurteile. Mein Team
       und ich haben in einem Aufsatz in der Science gezeigt, dass Algorithmen die
       selben Vorurteile reproduzieren wie Menschen. Sie benachteiligen etwa
       Menschen mit fremd klingenden Namen. Der Unterschied zum Menschen ist: Die
       Mechanismen sind leichter zu überprüfen.
       
       Es gibt aber ExpertInnen, die die Prüfbarkeit mancher Algorithmen in Frage
       stellen. Gerade wenn eine Maschine selbstständig lernt, sind die Regeln,
       die sie identifiziert, oft so komplex, dass sie für Menschen schwer
       zugänglich sind. 
       
       In gewisser Weise ist das richtig, aber die große Aufregung darüber ist
       nicht gerechtfertigt. Es stimmt, dass bei manchen Lernverfahren viele
       Details zusammenspielen, die für Menschen nicht immer zugänglich sind. In
       diesen Fällen kann die Entscheidung der Maschine etwa so undurchschaubar
       werden wie die eines Menschen. Das heißt aber nicht, dass man die Maschine
       nicht prüfen kann. Man kann ihre Arbeit beobachten und ihre Ergebnisse
       überprüfen. Und man kann den zugrunde liegenden Programmcode betrachten und
       gewisse Einstellungen verändern, um sich anzusehen, wie das die Resultate
       beeinflusst. Das kann man bei menschlichen Entscheidungen nicht.
       
       Der deutsche Justizminister Heiko Maas hat ein Transparenzgebot für
       Algorithmen vorgeschlagen. Halten Sie es für sinnvoll, dass Unternehmen
       ihre Algorithmen offenlegen? 
       
       Europa ist definitiv ein Vorreiter, was die Gesetzgebung im Technikbereich
       angeht, und ich halte es für sehr wichtig, sich darüber Gedanken zu machen.
       Ob man die Algorithmen für alle zugänglich machen sollte, ist eine andere
       Frage. Schließlich sind sie für viele Firmen so etwas wie Geheimrezepte,
       die sie von anderen Wettbewerbern abheben. Aber das heißt nicht, dass man
       sie nicht regulieren sollte. Ich stelle mir eher einen
       Verifizierungsprozess wie im Medizinbereich vor. Auch Medikamente brauchen
       eine Zulassung, bevor sie auf den Markt kommen. Künstliche Intelligenz hat
       auf unsere Gesellschaft einen Einfluss, der mindestens so groß ist wie der
       von Medikamenten.
       
       Halten Sie künstliche Intelligenz für eine Bedrohung? 
       
       Die Menschen verwechseln Technologie mit Mathematik. Mathematik ist etwas,
       das perfekt und unendlich sein kann, eine Abstraktion wie in Platons
       Höhlengleichnis. Technologie ist ein physischer Prozess in der echten Welt,
       sie braucht Zeit, sie braucht Energie, sie braucht Platz, Serverkapazität,
       Arbeitsspeicher für die Berechnungen. Deswegen werden wir nie eine perfekte
       künstliche Intelligenz haben. Es gibt in der Evolution ja auch nicht das
       perfekte Tier.
       
       Einige bekannte UnternehmerInnen, darunter Elon Musk und Stephen Hawking,
       warnen vor einer „Singularität“, davor, dass der Moment kommen wird, ab dem
       Maschinen klüger werden als der Mensch und selbst noch schlauere Maschinen
       erschaffen können, womit ihre Intelligenz exponentiell ansteigt. 
       
       Ja, es gibt ein paar wirklich kluge Menschen, die davon total überzeugt
       sind. Ich weiß nicht, was da los ist, vielleicht ist es nur ein guter Weg,
       Aufmerksamkeit zu erzeugen. Ich glaube jedenfalls nicht, dass eine
       übermächtige künstliche Intelligenz entstehen wird, die uns alle umbringen
       will. Aber es gibt natürlich Gefahren: Vielleicht muss ein Computer einmal
       eine Aufgabe lösen, und die Lösung scheint uns völlig akzeptabel zu sein;
       aber der Lösungsweg, den er errechnet, beinhaltet Zwischenschritte, deren
       Risiko wir gar nicht abschätzen können. Das ist übrigens eine ziemlich
       akkurate Beschreibung dessen, was auf der Erde geschehen ist, seit wir
       Menschen aufgetaucht sind.
       
       Wie meinen Sie das? 
       
       Sehen Sie sich die letzten zehntausend Jahre der Menschheitsgeschichte an.
       Bis zu dem Zeitpunkt, als die Schrift erfunden wurde, gab es mehr Makaken
       als Hominiden auf dem Planeten. Jetzt haben wir dieses exponentielle
       Wachstum, plötzlich sind wir sieben Milliarden Menschen. Das ist eigentlich
       großartig, denn es zeigt, dass wir sehr gut darin sind, zusammenzuarbeiten.
       Das Problem ist nur: Niemand hat sich je hingesetzt und gesagt: „Hey, lasst
       uns alle anderen Säugetiere ausrotten.“
       
       Aber genau das tun wir, und für die längste Zeit wussten wir es nicht
       einmal. Künstliche Intelligenz ist nicht das Problem, wir sind das Problem.
       Es gibt auch keinen Kampf zwischen Mensch und Maschine, denn Maschinen sind
       ein Teil von uns. Wir müssen einfach lernen, uns über unser Handeln bewusst
       zu werden. Von daher: Die Argumentationslinie, dass Intelligenz immer
       gefährlicher wird, ist richtig. Aber die Singularität ist schon vor
       zehntausend Jahren passiert.
       
       5 Aug 2017
       
       ## AUTOREN
       
   DIR Marie Kilg
       
       ## TAGS
       
   DIR Netzsicherheit
   DIR Hate Speech
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Algorithmus
   DIR Wahlmanipulation
   DIR Fake News
   DIR Studie
   DIR Lesestück Recherche und Reportage
   DIR Algorithmen
   DIR Selbstfahrendes Auto
   DIR Lesestück Recherche und Reportage
       
       ## ARTIKEL ZUM THEMA
       
   DIR Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“
       
       Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien
       selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler
       darauf hinweisen.
       
   DIR „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
       
       Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
       Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
       
   DIR Studie zu künstlicher Intelligenz: Bist du schwul oder was?
       
       Eine Studie sagt, ein Computer könne die sexuelle Orientierung eines
       Menschen an seinem Gesicht erkennen. Ist das wirklich so einfach?
       
   DIR Big Data und Überwachung in China: Ihr werdet schon sehen
       
       Kein Land ist so avanciert, wenn es um Datennutzung geht – inklusive der
       Verknüpfung diverser Datenbanken. Die Regierung hat Zugriff.
       
   DIR Die Macht der Algorithmen: Heiko Maas will das Internet bändigen
       
       Algorithmen beeinflussen Menschen im Netz. Der Justizminister will diesen
       Einfluss per Gesetz einschränken. Sein Nutzen ist umstritten.
       
   DIR Ethik des autonomen Fahrens: Regeln für den Algorithmus
       
       Eine vom Verkehrsministerium eingesetzte Kommission fordert: keine
       Aufrechnung von Menschenleben und besseren Datenschutz.
       
   DIR Geschlecht von Künstlichen Intelligenzen: Siri, ficken?
       
       Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich
       weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen aus.