URI:
       # taz.de -- Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …
       
       > Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines
       > Menschen herausfinden, ob der straffällig wird. Aber will man das?
       
   IMG Bild: Münztelefone für Inhaftierte in einem Gefängnis bei Phoenix, Arizona, USA.
       
       Richard Berk ist ein alter weißer Mann, der dafür sorgt, dass junge,
       schwarze Männer länger im Gefängnis sitzen. Er tut das mit einem
       Computerprogramm, von dem er ganz offen zugibt, dass niemand genau
       nachvollziehen kann, wie es funktioniert.
       
       Berk, den eigentlich alle Dick nennen, ist 72 Jahre alt, hat eine Glatze,
       einen weißen Bart ums Kinn, dicke Tränensäcke unter den Augen, und er mag
       Fakten. Er betrachtet es als seinen Job, die Fakten in die Welt zu bringen,
       raus in die Verwaltungen der Gefängnisse, in die Polizeistationen der USA,
       zu den Sozialämtern. Berk ist Soziologe. Er arbeitet seit etlichen Jahren
       mit den ausgefeiltesten statistischen Programmen daran, immer genauere
       Vorhersagen zu treffen. Wird jemand seine Kinder schlagen? Wird jemand
       morden?
       
       Berk sagt, dass er für ungeborene Babys jetzt schon mit ziemlicher
       Sicherheit prognostizieren könnte, ob aus ihnen einmal Verbrecher werden.
       Traue sich nur noch keiner. Werde aber bald kommen. Fünf Jahre vielleicht,
       sagt Berk.
       
       Es ist einer der heißesten Tage eines heißen Sommers. Die Hochhäuser
       schwitzen aus ihren Klimaanlagen, das Kondenswasser tropft nur so aus den
       röhrenden Kästen an den Außenwänden der Gebäude. Unten auf den Straßen
       erschießen sich so viele Leute wie lange nicht mehr. Junge Leute vor allem,
       schwarze. Die Polizeireporter werden bald anfangen zu fragen, warum die
       Mordraten in diesem Sommer überall durch die Decke knallen. Baltimore,
       Chicago, New York. Auch in Philadelphia, wo Berk jetzt in seinem kühlen
       Büro sitzt, zwischen Bücherstapeln, Familienfotos und Computern, und sagt,
       dass man ihn nicht missverstehen solle.
       
       „Ich versuche, schwarze Leben zu retten“, sagt Berk.
       
       Es gibt natürlich etliche Leute, die das ganz anders sehen, weil Berks
       Algorithmen vor allem schwarze Gefangene als gefährlich einstufen.
       Bürgerrechtler, schwarze Aktivisten, Juristen haben ganze Bücher gegen das
       geschrieben, was er da macht.
       
       Deshalb sagt er es ja.
       
       An der Wand über seinem Schreibtisch hängt eine rosa Uhr, auf der „Data
       Analysis Inc.“ steht. Zur Blue Jeans trägt Berk ein kurzärmeliges Hemd,
       fliederfarben. Seine Stimme ist tief und unbeirrbar. Gegenargumente hört er
       kurz an. Dann legt er wieder dar, wie es wirklich ist. Nur manchmal muss er
       zwischendurch kurz husten.
       
       Richard Berk ist spät im Leben Vater geworden. Sein Sohn ist siebzehn. Sie
       diskutieren oft darüber, welche Rolle Maschinen künftig spielen. Die
       Antwort, sagt Berk, laute: „Maschinen werden immer mehr Entscheidungen
       treffen, weil sie es einfach besser können.“
       
       Mit der Intelligenz seiner Rechenmaschinen versucht Berk in Maryland fürs
       Sozialamt herauszufinden, ob Kinder in einer Familie Missbrauch fürchten
       müssen. Er arbeitet mit der Polizei in Philadelphia daran, vorherzusagen,
       ob häusliche Gewalt sich in bestimmten Haushalten wiederholt. In
       Philadelphia will er außerdem ermitteln, ob jemand wohl zum Gerichtstermin
       erscheint oder eher nicht, damit die Richter wissen, ob sie
       Untersuchungshaft verhängen sollen.
       
       Google sammelt Daten, um daraus zu lesen, welchen Buchstaben wir als
       nächsten in den Suchschlitz tippen. Facebook findet mit seinen Daten
       heraus, welche unserer Freunde uns am meisten interessieren. Banken
       ermitteln, wie lange unser Geld noch reicht. Versicherungen versuchen
       festzustellen, wie wahrscheinlich es ist, dass wir mit 55 an
       Schilddrüsenkrebs erkranken. Computer zeichnen Lebenswege. Sie haben die
       Macht, uns zu lenken.
       
       Längst sind sie auch für Polizei und Justiz im Einsatz, deutsche Polizisten
       wollen so Einbrüche vorhersehen. „Predictive Policing“ bezeichnet
       Bundesinnenminister Thomas de Maizière als das polizeiliche Instrument der
       Zukunft.
       
       Berk gilt in seinem Gebiet als einer der besten in den USA, vielleicht
       sogar der Welt. Das sagen viele seiner Kollegen. Seinen neuesten
       Algorithmus hat er für die Behörde in Pennsylvania entworfen, die
       entscheidet, wann jemand auf Bewährung raus darf.
       
       Das Programm soll Wahrscheinlichkeiten dafür liefern, ob ein Gefangener
       draußen wieder ein Verbrechen begehen wird, und wenn ja, ob damit zu
       rechnen ist, dass es ein Gewaltverbrechen ist. Die Behörde testet den
       Algorithmus gerade. Wahrscheinlich wird sie ihn bald übernehmen.
       
       Die Zahlen, die Berks Maschinen berechnen, stehen bei John Tuttle auf dem
       Zettel, wenn er Gefangene anhört, um zu entscheiden, wann sie rausdürfen.
       Meist führt Tuttle die Gespräche von seinem Büro aus, die Gefangenen werden
       dort auf einen Flachbildfernseher übertragen. Videokonferenz.
       
       Tuttle, 59 Jahre alt, ist der Vorsitzende der Bewährungsbehörde von
       Pennsylvania, ein massiger Mann mit wenig Resthaar, aber umso mehr Humor.
       Er hat seinen technischen Direktor mit in den Konferenzraum gebracht, um
       die Sache mit dem Algorithmus zu erklären. Ein langer dunkler Tisch,
       bordeauxrote Ledersessel. Draußen, hinter dem Panoramafenster, fließt in
       Harrisburg der Susquehanna River vorbei, der an diesem Tag sehr niedrig
       steht.
       
       „Unser Job ist es, das Risiko für die Öffentlichkeit abzuwägen“, sagt der
       technische Direktor. „Die Statistik hilft uns dabei.“
       
       „Erzähl ihm mal, was mein Lieblingsspruch ist“, ruft John Tuttle ihm zu.
       
       „Wir werden nicht für die Einfachen bezahlt“, sagt der Direktor.
       
       „Das ist mein Lieblingsspruch“, ruft John Tuttle. „Wir werden nicht für die
       Einfachen bezahlt.“
       
       Sie kümmern sich um die schwierigen Fälle. Egal, ob es darum gehe, zu
       entscheiden, ob jemand rausdarf. Oder ihn dann draußen zu betreuen. „Jeder
       kann einfach alle einsperren. Oder die ganz Ungefährlichen rauslassen. Wir
       werden dafür bezahlt, dass wir die harten Entscheidungen treffen.“
       
       Irgendwann, klar, sagt der Direktor, gehe immer irgendein Fall mies aus.
       „Go bad“, nennen sie das. Das sei wie beim American Football, sagt Tuttle.
       Man verteidigt gegen diesen einen Typen. Und man bekommt richtig aufs Maul.
       Man muss das aber sofort vergessen, weil sofort der nächste auf einen
       zugerannt kommt. So ist das mit den miesen Fällen. Es geht immer weiter.
       „Oder haben Sie mal von General Custer und den Indianern gehört? Die
       kämpften um Amerika. Da kamen immer mehr Indianer.“ Immer mehr Fälle, sagt
       Tuttle. Der Direktor lacht.
       
       ## Bevor jemand mordet, entscheidet er sich dafür
       
       Ein paar solcher miesen Fälle haben dazu geführt, dass sie in Pennsylvania
       mehr Statistik denn je verwenden. Vor sieben Jahren erschossen Exhäftlinge
       auf Bewährung zwei Polizisten. Der Gouverneur setzte die Bewährung eine
       Zeit lang komplett aus. Er wandte sich an einen Kriminologen, der mit
       seinen statistischen Verfahren sicherstellen sollte, dass so etwas künftig
       so unwahrscheinlich wird wie möglich.
       
       John Tuttle entscheidet oft über 14 Fälle an einem Tag, hintereinander weg.
       Seit damals hat er dafür neben dem Lebenslauf der Gefangenen und anderen
       Kennziffern auch eine Gefahreneinschätzung. Sie zeigt das Risiko: hoch,
       mittel, niedrig. Neuerdings experimentieren sie außerdem mit einer Ampel.
       In kleinen Kästchen erscheinen die Fälle dann als rot, gelb oder grün. Die
       Ampel hat Berk in seinem Büro in Philadelphia entwickelt. Sie soll die
       alten Kategorien ablösen.
       
       „Mit den grünen scheint alles okay zu sein“, sagt Tuttle, „die gelben
       könnten was anstellen. Bei den roten musst du echt aufpassen.“
       
       Es gehe darum, die Darth Vaders zu finden, die wirklich Bösen. Das sage
       Berk immer.
       
       In vielen Bundesstaaten der USA übernehmen die Algorithmen gerade mehr
       Entscheidungen in Gefängnissen und vor Gerichten. Pennsylvania ist einer
       der Staaten, die dabei am weitesten gehen. Schon im kommenden Jahr könnte
       die statistische Verbrechensprognose dort in Gerichtssälen eingeführt
       werden. Bewährungsbehörden wie die von John Tuttle haben damit lange
       Erfahrung. Programme, die herausfinden sollen, wie gefährlich Menschen
       sind, gibt es im amerikanischen Justizsystem seit den zwanziger Jahren.
       Gerechnet wurde zunächst auf dem Papier. War jemand ein Mann und noch recht
       jung, als er verurteilt wurde? Dann ist die Wahrscheinlichkeit höher, dass
       er es wieder tun wird. Die Faktoren heißen: Alter, Alter bei der ersten
       Tat, Waffenbesitz.
       
       Die Computer finden kein Mördergen, sondern die perfekten Bedingungen für
       ein Verbrechen. Mittlerweile ist ihre Rechenkraft so groß, ihre Speicher
       sind so riesig, dass sich deutlich mehr Variablen einbeziehen lassen, um
       Szenarios zu spinnen.
       
       Darf man Menschen einsperren, weil ein Computer sagt, die
       Wahrscheinlichkeit sei recht hoch, dass sie wieder eine Straftat begehen?
       
       Als Teal Kozel am anderen Ende der USA von Berks Verfahren hört, hat sie
       eine klare Antwort. „Das ist sehr schicksalsergeben“, sagt sie. Kozel, 39
       Jahre alt, hat kastanienbraune Haare, die sich auf ihrem Kopf türmen. Sie
       steigert sich langsam in ihre Antwort hinein. Es regt sie richtig auf.
       
       „Was Berk macht, ignoriert den menschlichen Einfluss komplett“, sagt Kozel.
       „Selbst wenn jeder bekannte Risikofaktor auf einen einzelnen Menschen
       zutrifft, hat dieser Mensch am Ende immer noch eine Wahl. Er entscheidet,
       ob er Gewalt anwendet oder nicht. Ich bin Psychologin. Ich gehe immer davon
       aus, dass es diese Wahl gibt. Selbst bei den gewalttätigsten Kriminellen.
       Ich habe mit wirklich vielen Kriminellen gesprochen, mit Hunderten, selbst
       bei impulsivsten Taten gibt es einen Moment der Entscheidung. Wenn man nur
       auf die Statistik vertraut, um manche Menschen aus der Gesellschaft
       auszuschließen, ist das ein wirklich fatalistischer Blick auf die Dinge.
       Ich weiß nicht, ob ich in so einer Welt leben will.“
       
       ## Algorithmen sind wie Kuchen, Berk probiert sie
       
       Kozel arbeitet als Psychologin für die Bewährungsbehörde von Kalifornien.
       Sie setzen dort wesentlich stärker auf psychologische Tests, die aus langen
       Gesprächen entstehen. Ein ähnlich langer, ähnlich dunkler Tisch wie bei den
       Kollegen in Pennsylvania. Nur sitzen um ihn drei Frauen. Kozel, eine
       Kollegin und die Vorsitzende. Sie nennen ihren Ansatz strukturierte,
       professionelle Beurteilung. In Kalifornien vertrauen sie vor allem auf das
       Urteil von Menschen.
       
       Richard Berk hat sich ein Bild überlegt, um sein Verfahren zu erläutern.
       Mit seiner tiefen Erklärstimme legt er in seinem kühlen Büro alles langsam
       dar. „Nehmen wir mal an, Sie wollten einen Kuchen backen“, sagt Berk. „Sie
       haben das Rezept, zwei Eier, Milch, Mehl. Sie rühren alles in einer
       Schüssel zusammen. Dabei wissen Sie ganz genau, welche Zutaten in der
       Schüssel sind. Schließlich geben Sie alles in eine Backform, die Sie in den
       Ofen schieben, eine Dreiviertelstunde. Im Ofen passieren dann eine ganze
       Reihe komplizierter chemischer und physikalischer Vorgänge, die Sie nicht
       verstehen. Selbst Chemiker oder Physiker begreifen sie nicht genau. Wie
       wird aus einer flüssigen Masse dieser fluffige, leckere Kuchen? Wenn der
       Kuchen schmeckt, verwenden Sie das Rezept öfter. Wenn nicht, ändern Sie es.
       Okay?“
       
       „So funktioniert der Algorithmus“, sagt Berk. „Der Computer arbeitet, und
       ich probiere den Kuchen.“ Wenn man Leute von den Algorithmen überzeugen
       will, sei das das Schwierigste, findet er: Sie müssen die Vorhersage
       akzeptieren, obwohl sie die Mechanismen nicht unbedingt verstehen.
       
       Der Jurist Frank Pasquale hat ein Buch gegen diese Art von Berechnungen
       geschrieben. Es heißt „The Black Box Society“. Pasquale kritisiert darin,
       dass eine wachsende Zahl der Entscheidungen von Justiz, Versicherungen oder
       Online-Unternehmen mit Algorithmen getroffen werden, die genau solche Black
       Boxes sind. Undurchschaubar.
       
       Oft werden die Risikoanalysen für die Gefängnisse nicht von unabhängigen
       Wissenschaftlern wie Berk gemacht, sondern von privaten Firmen. Wenn man
       dann in den Bewährungsbehörden fragt, was genau die Instrumente eigentlich
       berechneten, antworten die Verantwortlichen manchmal: „Tja, das liegt
       hinter dem magischen Vorhang.“ Berk dagegen publiziert viel. Man kann
       nachlesen, was er tut, auch wenn man dann immer noch nicht versteht, was im
       Ofen vor sich geht. Er nimmt die üblichen Informationen: Alter, Einkommen,
       Vorstrafen, Drogendelikte, Gewaltdelikte, Waffendelikte. Sein Programm
       würfelt all die Daten wieder und wieder neu zusammen, lässt hunderte Male
       die Wahrscheinlichkeit für diesen einen Menschen berechnen. Am Ende wird
       aus allen Durchgängen das Urteil gebildet. Zu jedem Urteil liefert Berk
       einen Prozentsatz, der angibt, wie sicher der Algorithmus sich ist. Wie oft
       er zum selben Ergebnis kam.
       
       Berks Methode, sagen auch Leute, die ihn bewundern, hat nur einen Makel:
       Die Zahl derjenigen, die als gefährlich eingestuft werden, obwohl sie es
       nicht sind, liegt bei seinen Programmen höher als bei anderen. Mehr
       Menschen sitzen länger, als sie müssten. Das ist der Kollateralschaden.
       
       Er, sagt Berk, liefere nur die Fakten. Die Politik müsse entscheiden, was
       sie daraus mache.
       
       In den Gefängnissen der USA nahm die statistische Risikoanalyse in den
       siebziger Jahren stark zu. Es waren eher linke Soziologen, die die Technik
       förderten, weil sie mit ihrer Hilfe beweisen wollten, dass viele der
       Menschen, die eingesperrt werden, deutlich weniger gefährlich sind, als
       Konservative gern pauschal behaupteten.
       
       Dass sich die Algorithmen gerade jetzt so stark verbreiten, hat vor allem
       ökonomische Gründe. Für die 50.000 Menschen in seinen Gefängnissen zahlt
       etwa der Staat Pennsylvania 2 Milliarden Dollar im Jahr, 7 Prozent seines
       gesamten Budgets. Vor dreißig Jahren machte der Anteil nur 2 Prozent des
       Budgets aus. Es gibt in Pennsylvania 2.000 Betten zu wenig für all die
       Häftlinge. Seit 1970 hat sich die Zahl der Gefangenen in den Vereinigten
       Staaten um das Siebenfache vergrößert, von etwa 300.000 auf 2,2 Millionen.
       Die Algorithmen, hoffen einige, können helfen, mehr Leute guten Gewissens
       zu entlassen.
       
       ## Männer vertrauen Maschinen, Frauen der Psychologie
       
       John Tuttle, der Vorsitzende der Bewährungsbehörde von Pennsylvania, wird
       bald entscheiden müssen, ob er Berks Maschinen nach dem Testbetrieb
       übernimmt. Er wirkt entschlossen, das zu tun, auch wenn er es erst mit
       seinen Kollegen besprechen muss. Sie werden sich einen Tag für die
       Diskussion nehmen. „Mindestens einen halben“, sagt er.
       
       Bisher scheinen sich Tuttle und seine Leute stark auf den Algorithmus zu
       verlassen. „Sie lassen jemanden mit höherer Wahrscheinlichkeit frei, wenn
       zwei Dinge zutreffen“, sagt Berk. „Die Prognose muss sagen, dass er oder
       sie nicht gewalttätig wird. Und sie muss das mit großer Sicherheit tun.“
       
       Wenn man Tuttle und seinen technischen Direktor im Konferenzraum in
       Harrisburg fragt, warum sie die Entscheidung nicht gleich dem Algorithmus
       überlassen, sagt der Direktor, er glaube nicht, dass eine Maschine das
       jemals tun könne.
       
       „Das wäre so was wie künstliche Intelligenz“, sagt John Tuttle.
       
       „Das wäre zu sehr wie Minority Report“, wendet der Direktor ein.
       
       „Minority Report“, eine Kurzgeschichte von Philipp K. Dick. In einem Raum
       der Precrime-Behörde kauern drei verkabelte Mutanten. Schwachsinnige, denen
       man die Fähigkeit antrainiert hat, in die Zukunft zu sehen. Ihre Fähigkeit
       wird genutzt, um Mörder schon vor dem Mord festzunehmen. In fünf Jahren hat
       die Republik nur einen Mord gesehen. Jetzt allerdings steht auf einem der
       Vorhersagezettel ein seltsamer Name: John Anderton, der Leiter der Behörde
       persönlich.
       
       Wenn der Mörder weiß, dass er morden wird, hält ihn das vom Morden ab?
       
       Das Wissen um die Zukunft verändert die Zukunft, unterschiedliches Wissen
       schafft unterschiedliche Zukünfte. Damit spielt Philipp K. Dick, der
       Science-Fiction-Autor. Steven Spielberg hat aus „Minority Report“ einen
       Film gemacht.
       
       Über einen Flachbildfernseher ist neben Tuttle und seinem Direktor auch ein
       Bewährungshelfer zugeschaltet. „Je härter es wird, all seine Fälle zu
       schaffen, desto mehr verlässt man sich auf die statistische Analyse“, sagt
       der. Seine Behörde sei ziemlich überlastet, ergänzt Tuttle.
       
       Die Maschinen treffen also schon einen Großteil der Entscheidungen. Die
       Menschen gestehen sich das nur noch nicht ein. Maschinen wirken
       unbestechlich, man kann sich gut hinter ihnen verstecken.
       
       Forscher, die abgeglichen haben, ob die Psychologinnen oder die Computer
       bessere Vorhersagen treffen, sagen, die Unterschiede seien fast
       unerheblich. Menschen tendierten eher zu den mittleren Bewertungen und
       hätten Angst vor Extremen.
       
       Drei Männer um einen Konferenztisch. Drei Frauen um einen anderen. Zwei
       Bewährungsbehörden, eine an der Ostküste, eine an der Westküste. Die einen
       eher für das Urteil der Maschinen, die anderen eher für das der Menschen.
       
       Es motiviere Gefangene, wenn sie im Gespräch den Eindruck hätten, sie
       verstünden, wie sie sich ändern müssten, um besser bewertet zu werden, sagt
       Teal Kozel, die Psychologin. „Wenn es eine Chance gäbe, dass die Kommission
       der Bewährungsbehörde einen guten Menschen in ihm sehe. Vielleicht schaffe
       er es dann auch selbst wieder“, habe einer mal zu ihr gesagt.
       
       Und wie, bitteschön, gibt Kozel zu bedenken, verändere es die Zukunft, wenn
       jemand wegen statistischer Berechnungen weniger Hilfen bekäme, weil er als
       ungefährlicher gelte? Werde er dann nicht gerade dadurch wieder
       gefährlicher?
       
       Wie verändert das Bild von der Zukunft die Zukunft, allein weil man es
       zeichnet?
       
       Im Juli 2013 steht plötzlich eine Kommandantin der Polizei bei Robert
       McDaniel vor der Haustür. Sie sagt, sie habe eine Akte über ihn auf ihrem
       Schreibtisch. Er solle jetzt mal besser aufpassen.
       
       McDaniel hatte die High School abgebrochen, gekifft, war gelegentlich von
       der Polizei festgehalten worden, nie etwas Schlimmes, behauptete er, als
       ein Reporter der Chicago Tribune ihn danach fragte. Vermutlich weil ein
       Bekannter von ihm erschossen worden war, landete er auf einer Liste der
       Polizei von Chicago. Die „Heat List“. Auf ihr stehen Personen, die ein
       Algorithmus aus den Datenbanken herausgepickt hat.
       
       Der Fall ging um die Welt. McDaniel ist das erste öffentlich anerkannte
       Algorithmus-Opfer, wenn es um Polizei oder Justiz geht.
       
       ## Verbrecher sind wie du und ich, selten wirklich böse
       
       In Chicago berechnet die Polizei seit gut zwei Jahren, wie groß die
       Wahrscheinlichkeit für bestimmte Menschen ist, erschossen zu werden. Oder
       jemanden zu erschießen. Es geht vorerst nur so grob. Das Chicago Police
       Department hat sich dafür von einem Wissenschaftler, der vorher viel mit
       Bilderkennungsverfahren experimentiert hat, einen Algorithmus entwerfen
       lassen. Chicago verfügt über eine der größten Polizeidatenbanken der
       Vereinigten Staaten. Daraus zieht sich das Programm Informationen darüber,
       ob jemand schon einmal geschossen hat oder ob auf ihn geschossen wurde, ob
       er verurteilt worden ist und wenn ja wofür, ob er wegen Waffenbesitzes
       angeklagt war oder als Gangmitglied gilt. 440 Personen werden so für eine
       „Heat List“ ausgewählt, zwanzig für jeden Polizeibezirk. Die Polizisten
       gehen dann von Tür zu Tür und warnen diese Personen, dass sie über ihren
       Lebenswandel nachdenken sollten.
       
       Der Hamburger Polizeipräsident und der Innensenator waren schon da, um sich
       die Technik anzusehen.
       
       Robert McDaniel ist einer wie viele der Jungs aus jenen Vierteln. Die
       Mutter arbeitete bei der Restaurantkette Red Lobster, er hing auf der
       Straße herum. Mittlerweile war er auch ein-, zweimal im Gefängnis. Er ist
       einer dieser Jungs, die die Polizei sich gern genauer anschaut, weil sie
       schwarz sind, weil es in ihrer Nachbarschaft oft Ärger gibt. Auch
       Algorithmen durchleuchten sie genauer als andere.
       
       Ein Junge, wie auch Richard Berk mit vielen gearbeitet hat, damals in
       Baltimore.
       
       Berk ist erst im Laufe der Neunziger zum Kriminologen geworden. Jemand von
       der Gefängnisbehörde rief an und wollte wissen, ob er die Gefährlichkeit
       von Insassen schätzen könne, damit sie richtig in die einzelnen
       Sicherheitsstufen eingeteilt würden. Berk hatte zuvor als Soziologe
       versucht zu prognostizieren, wann Menschen bereit sind, mehr Wasser zu
       sparen. Er war damals noch in Los Angeles, an der University of California.
       Er hat sich auch mit dem Klimawandel beschäftigt.
       
       Sein Ziel, sagt Berk, war es immer, die bestmöglichen Informationen zu
       liefern. Damit Politiker, Polizeichefs oder Behördenleiter die besten
       Entscheidungen treffen. Natürlich hätte er auch zu einem Unternehmen gehen
       können und Kreditkartenbetrug vorhersagen. Manche Kollegen haben das
       gemacht. Aber er ist Wissenschaftler. Er will unabhängig sein.
       
       Als Richard Berk noch ein junger Mann war, er hatte die Universität Yale
       besucht, nahm er den Job in Baltimore an. Er sollte andere junge Männer auf
       der Straße davon abhalten, sich gegenseitig umzubringen. Klassische
       Sozialarbeit. Mit den Jungs am Wochenende rausfahren, Jobs vermitteln. Vier
       Jahre lang.
       
       Berk weiß, dass viele Baltimore vor allem aus der HBO-Serie „The Wire“
       kennen, die von genau solchen Jungs handelt. Hat er nie gesehen. Er schaut
       wenig fern.
       
       Die Zeit in Baltimore hat seine Sicht auf die Dinge geprägt: „Verbrecher
       sind selten wirklich böse. Manchmal gibt es auch die, klar. Aber die
       meisten sind Leute wie du und ich, die in eine Situation geraten sind, in
       der sie etwas wirklich Bescheuertes gemacht haben. Vielleicht hätten wir
       dasselbe getan.“ Es gehe oft nur darum, wer es zuerst schafft, sich eine
       Waffe zu besorgen. Das sei ihm damals schon wie ein interessantes
       politisches, ein moralisches Problem vorgekommen.
       
       Berk glaubt, dass seine Algorithmen helfen können. Die Vorhersage, man
       könnte zum Verbrecher werden, wäre dann fast eine Art Glückslos. Er stellt
       sich das so vor, dass Sozialprogramme vorsorglich hochgefahren würden,
       Collegeausbildungen bezahlt. Und wenn man es schon vor der Geburt wüsste,
       sagt Berk. Man könnte so viel tun. Besseres Essen für die Mutter.
       Alkoholentzug. Drogenentzug. Eine Hebamme.
       
       Muss man jemanden dafür erst zum potenziellen Verbrecher stempeln?
       
       Die Alternative zu diesem Glückslos wäre, dass man gefährdete Menschen
       einfach vorsichtshalber wegsperrt. Was wohl herauskäme, wenn man das in den
       USA zur Abstimmung stellen würde?
       
       Es gibt ein weiteres Buch, das sich gegen alles richtet, was Berk tut. Es
       heißt „Gegen Vorhersagen“ und stammt auch von einem Jura-Professor. Bernard
       E. Harcourt sagt darin: Alle Instrumente zur Risikoanalyse sind
       rassistisch. Es habe, stellt er fest, wenn man sich mit ihm darüber
       unterhält, eine Zeit gegeben, in der der Faktor Rasse offen einfloss. Das
       war in den Zwanzigern. „Ein deutscher Vater galt damals als schlechtes
       Zeichen“, erzählt er. Längst werden solche Kriterien nicht mehr offen
       einbezogen. Ob jemand schwarz ist oder Hispanic, bahnt sich trotzdem seinen
       Weg in die Berechnungen, argumentiert Harcourt. Über Umweg-Variablen wie
       Nachbarschaft etwa. „Der Rassismus war damals juristisch, jetzt ist er
       faktisch“, schließt Harcourt.
       
       Berk weicht solchen Argumenten aus. Er spreche lieber über den Faktor
       Geschlecht, der sei nicht ganz so aufgeladen wie „Race“. Gerade jetzt, wo
       sich der Polizistenmord von Ferguson zum ersten Mal jährt. Wenn eine
       Behörde also beschließe, das Geschlecht außen vor zu lassen, weil das
       diskriminieren könnte, sage er: „Alles klar. Womöglich ist ihre
       Vorhersagekraft um 15 Prozent vermindert. Es werden also in Pennsylvania
       10.000 Verbrechen geschehen, die wir nicht vorhersagen können. Wollen Sie
       das? Sie entscheiden.“
       
       Das sagt Berk gern: Sie entscheiden.
       
       Er stellt sich als Dienstleister dar, der der Öffentlichkeit die Zahlen
       liefert. Aber natürlich legt seine Frage einen Schluss nahe.
       
       ## Eine rassistische Welt führt zu rassistischen Computern
       
       Mister Berk, ist das nicht ein etwas formalistischer Ansatz, um eine so
       große Frage zu beantworten?
       
       „Ich kann Race natürlich rausnehmen. Nehmen wir also mal alles raus, was
       mit Race verbunden sein könnte – was ja heutzutage fast alles wäre. Gehen
       wir davon aus, das führt nun zu 35 mehr Morden im Jahr. Wer werden denn die
       Opfer sein? Menschen töten Menschen wie sich selbst. Wenn also mehr
       afroamerikanische Straftäter mit hohem Risiko freigelassen werden,
       resultieren daraus mehr afroamerikanische Opfer. Wollen Sie das?“
       
       Sie entscheiden.
       
       Für so eine Entscheidung müsste man eigentlich herausfinden, wie genau sich
       die Algorithmen auf wen genau auswirken. Die Gefangenen, deren Schicksal
       durchgerechnet wird, haben aber gegen Ende ihrer Haftzeit meist keinen
       Anwalt mehr. Sie sitzen in einem toten Winkel der Gesellschaft. Kaum jemand
       überprüft das Urteil der Computer.
       
       Berks Gegner würden nun sagen, dass seine Algorithmen mit dafür
       verantwortlich sind, dass junge schwarze Männer deutlich häufiger in solche
       Situationen geraten. Algorithmen gehen vom Status quo aus, den schreiben
       sie mit ihren Berechnungen fort. Schwarze werden intensiver beobachtet und
       also auch häufiger festgenommen. Weiße kommen davon.
       
       „Auf jeder Stufe des Justizsystems haben Schwarze schlechtere Chancen“,
       sagt Bernard E. Harcourt, der Autor von „Gegen Vorhersagen“.
       
       Berk geht auf solche Punkte nie direkt ein. Er füttere nur den Algorithmus.
       Seine Zahlen seien korrekt.
       
       Der Algorithmus kann ja nicht rassistisch sein, oder? Es ist ja nur ein
       Computer?
       
       „Natürlich ist er vollkommen rassistisch“, sagt einer von Berks Kritikern,
       ein Statistiker. Berks Zahlen stammten schließlich aus einer rassistischen
       Wirklichkeit.
       
       Berk sagt: „Der Algorithmus hat ja keine eigene Motivation. Er betrachtet
       nur die Fakten. Ein Algorithmus hat eine wesentlich bessere Faktengrundlage
       als Menschen mit all ihren Vorurteilen. Wenn es faktisch richtig ist, dass
       Männer häufiger Frauen töten als andersherum, dann sollte das doch in so
       einen Entscheidungsprozess einbezogen werden.“
       
       Für Berk hat das alles eine gewisse Unaufhaltsamkeit. Er hat für den
       Bundesstaat Maryland einmal versucht herauszufinden, welche
       Jugendstraftäter auch nach ihrem 18. Geburtstag straffällig werden würden.
       Das habe ziemlich gut funktioniert. Aber die Verantwortlichen hätten Angst
       bekommen, es wirklich einzuführen.
       
       Haben Sie keine Angst, dass all die Informationen missbraucht werden
       könnten, Mister Berk?
       
       „Technologien können immer für gute oder für böse Zwecke verwendet werden.
       Atomenergie wäre ein klassisches Beispiel. Soll man deshalb mit dem
       Erfinden aufhören? Daten werden doch jetzt schon missbraucht. Und auch ohne
       Daten werden ganz schreckliche Entscheidungen getroffen.“
       
       Wir würden uns zwangsläufig in diese Richtung bewegen, sagt Berk, „weil die
       privaten Unternehmen es schon tun. Google sammelt alles. Das macht auch
       Amazon, das tun viele Player im Gesundheitssystem, Versicherungen. Wir
       werden sehr persönliche, sehr genaue Daten von jedem haben. Und dann?
       Werden wir sie nutzen? Wie werden wir sie nutzen?“
       
       Sie entscheiden.
       
       9 Mar 2016
       
       ## AUTOREN
       
   DIR Johannes Gernert
       
       ## TAGS
       
   DIR Algorithmus
   DIR Psychologie
   DIR Verbrechen
   DIR Individualismus
   DIR Schwerpunkt Überwachung
   DIR Schwerpunkt Polizeikontrollen in Hamburg
   DIR Einbruch
   DIR Prognosen
   DIR Schwerpunkt Klimawandel
   DIR Bot
   DIR Algorithmen
   DIR Justiz
   DIR Schwerpunkt Polizeikontrollen in Hamburg
       
       ## ARTIKEL ZUM THEMA
       
   DIR Überwachungskameras in Gefängnissen: Lückenlose Auswertung
       
       Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von
       Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen.
       
   DIR Polizei will Erlaubnis für Datenanalysen: Präventives Durchleuchten
       
       Die Reform des Hamburger Polizeigesetzes soll automatisierte Datenanalysen
       ermöglichen. Die Polizei will damit Straftaten vorhersehen können.
       
   DIR Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“
       
       Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche
       begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet
       werden.
       
   DIR Prognosesoftware für Einbrüche: Drah di net um …
       
       … der Kommissar geht um. Durch sogenannte vorausschauende Polizeiarbeit
       sollen Verbrechen verhindert werden.
       
   DIR Debatte Klimawandel: Die Weltrettungsmaschine
       
       Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus
       Silicon Valley brauchen wir einen linken Optimismus der Technik.
       
   DIR Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft
       
       „Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das
       Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt.
       
   DIR Berechnung des Alltags: Wir sind Algorithmen-Zombies
       
       Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass
       wir es merken, und machen uns so manipulierbar.
       
   DIR Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
       
       Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im
       Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
       
   DIR Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist
       
       Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es
       Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.