URI:
       # taz.de -- Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter
       
       > Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus.
       > Sie warnen vor der Selbstvernichtung der Menschheit.
       
   IMG Bild: Darf die Drohne selbständig entscheiden, wer lebt und wer stirbt?
       
       Es wird als das perfekte Kriegsszenario verkauft: feindliche Roboterarmeen,
       die sich gegenseitig die Köpfe einschlagen, ohne dass ein Mensch zu Schaden
       kommt. Leider wird die immer raffiniertere Technik in Wirklichkeit eher
       gegen den Menschen verwendet. Das zeigen die US-amerikanischen
       Drohnenangriffe in Syrien, Somalia, dem Irak. Der nächste Schritt wäre,
       wenn sie von einer künstlichen Intelligenz, einer KI, gesteuert würden, die
       selbst darüber entscheidet, zu töten oder am Leben zu lassen.
       
       Der Gedanke ist nicht abwegig. Deshalb haben WissenschaftlerInnen,
       Ingenieure und Unternehmer, die in der KI-Forschung und -Entwicklung tätig
       sind, [1][eine Selbstverpflichtung unterschrieben]: Sie werden sich nicht
       daran beteiligen, autonome Maschinen zu entwickeln, die über menschliches
       Leben entscheiden. Es wäre zwar „billiger und effizienter, solche Maschinen
       in den wachsenden Militäreinsatzgebieten einzusetzen, statt das Leben von
       SoldatInnen zu riskieren“, sagt Günther Görz. Doch die Steuerung solcher
       Systeme sei fehleranfällig. Was, wenn es einen Hackerangriff gibt? Und
       sowieso, wer trägt am Ende die Verantwortung?, fragt er.
       
       Görz, Professor für Computerwissenschaften in Erlangen, ist einer der
       Unterzeichner der Selbstverpflichtung. Er sagt: „Natürlich kann man
       Maschinen bauen, die gezielt bestimmte Personen erkennen und diese gezielt
       um die Ecke bringen.“ Sie könnten auch schon autonom Entscheidungen
       treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch
       keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu
       erklären.
       
       Die Selbstverpflichtung ist eine von vielen Initiativen des Future of Life
       Institute aus Cambridge, Massachusetts. Es wurde 2014 unter anderem von
       Skype-Miterfinder Jaan Tallinn und dem Physiker Max Tegmark gegründet und
       wird finanziell von Tesla- und Space-X-Chef Elon Musk unterstützt. Auch der
       verstorbene Stephen Hawking beteiligte sich. Die Intention ist es,
       moralische und ethische Richtlinien für den Umgang mit der immer weiter
       fortgeschrittenen Technik aufzustellen. Dazu gehört vor allem das
       Forschungsgebiet der KI, das mithilfe von Computerprogrammierung versucht,
       menschliche Intelligenz zu simulieren. Das Future of Life Institute
       fordert, dass KI dem Wohl der Menschen dient und nicht missbraucht wird.
       
       ## „Büchse der Pandora“
       
       223 Organisationen und 2.861 Personen haben die Selbstverpflichtung bereits
       unterschrieben. Unabhängig davon haben sich 26 Staaten für ein Verbot von
       automatisierten tödlichen Waffensystemen ausgesprochen. Deutschland ist
       nicht darunter.
       
       Der Selbstverpflichtung ging ein vom Future of Life Institute organisiertes
       Treffen über „Beneficial KI“ im Januar 2017 voraus, in dem Prinzipien zu KI
       formuliert wurden. Dazu schreibt die „Vereinigung Deutscher
       Wissenschaftler“: „Mit der künstlichen Intelligenz öffnen die Menschen eine
       Büchse der Pandora. Im digitalen Zeitalter entfalten die Hilfsmittel für
       menschliches Denken womöglich eine autonome Position, die sich mächtig
       gegen den ohnmächtig werdenden Menschen richtet.“ Sie warnen vor der
       Selbstvernichtung der Menschheit und vor einem Auslöschungskrieg ohne
       Sieger.
       
       Und in der Tat entwickeln die USA, das Vereinigte Königreich, Russland,
       China, Israel und Südkorea bereits solche automatisierten tödlichen
       Waffensysteme. An der Grenze zu Nordkorea sind sie schon im Einsatz. Die
       Erfahrung lehrt: Irgendwo auf der Welt gibt es eben immer jemanden, der es
       macht.
       
       5 Aug 2018
       
       ## LINKS
       
   DIR [1] https://futureoflife.org/lethal-autonomous-weapons-pledge/
       
       ## AUTOREN
       
   DIR Stella Schalamon
       
       ## TAGS
       
   DIR Autonome Waffen
   DIR Killerroboter
   DIR Krieg
   DIR Drohnen
   DIR Roboter
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Militär
   DIR Killerroboter
   DIR Online-Petition
   DIR Vereinte Nationen
   DIR Rüstung
   DIR Autonome Waffen
   DIR Drohnenkrieg
       
       ## ARTIKEL ZUM THEMA
       
   DIR Autonome Waffensysteme: Killerroboter verbieten
       
       Eine Human-Rights-Watch-Direktorin meint: Deutschland braucht mehr
       Engagement gegen Killerroboter.
       
   DIR Waffen mit künstlicher Intelligenz: 26 Staaten für Killerroboter-Verbot
       
       UNO-Staaten beraten, ob die Entwicklung autonomer tödlicher Waffen
       verhindert werden soll. Deutschland hält Unverbindliches für ausreichend.
       
   DIR Petition der Woche: War’s ein Serienkiller?
       
       In England treibt der „Katzenkiller von Croydon“ sein Unwesen und die
       Politik tut nichts. Oder ist doch alles ganz anders?
       
   DIR Forderung nach Verbot von Killerrobotern: Nicht länger Science Fiction
       
       In Genf verhandeln Vertreter aus mehr als 75 Nationen über Waffensysteme
       mit künstlicher Intelligenz. Es gibt gute Argumente für ihr Verbot.
       
   DIR Streit um die Verteidigungspolitik der EU: Verbale Schlacht um Killerroboter
       
       Die EU will die Rüstungsindustrie fördern und dabei auch bisher verpönte
       Kriegswaffen zulassen. Grüne und Linke drohen mit einer Klage.
       
   DIR UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot
       
       Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen
       organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA
       und Russland sperren.
       
   DIR Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen
       
       Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt
       Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele
       treffen?