Der Geist des Maschinenkillers geht weiter. Woran glaubt Präsident Putin?
der Technik

Der Geist des Maschinenkillers geht weiter. Woran glaubt Präsident Putin?

Befürworter von Militärrobotern (1) argumentieren, dass automatisierte Waffen mehr Möglichkeiten zum Schutz von Menschenleben bieten. Maschinen können dem Feind näher kommen als Soldaten und die Bedrohung richtig einschätzen. Und Emotionen lähmen manchmal die Fähigkeit, die richtigen Entscheidungen zu treffen.

Viele Befürworter des Einsatzes von Killerrobotern glauben fest daran, dass sie Kriege weniger blutig machen werden, weil weniger Soldaten sterben werden. Sie stellen fest, dass die Roboter zwar kein Mitleid empfinden, aber immun gegen negative menschliche Emotionen wie Panik, Wut und Rache sind, die oft zu Kriegsverbrechen führen.

Menschenrechtsaktivisten führen auch das Argument an, dass das Militär im letzten halben Jahrhundert zu einem enormen Rückgang ziviler Opfer geführt hat und die Robotisierung der Armee einen Mechanismus zur strengeren Durchsetzung der Kriegsgesetze ermöglicht. Sie behaupten, dass Maschinen ethisch werden, wenn sie mit Software ausgestattet werden, die sie dazu zwingt, die Gesetze des Krieges zu befolgen.

Natürlich teilen eine Vielzahl von Menschen, darunter auch sehr berühmte, diese Meinung seit Jahren nicht. Unter dem Motto (2013) wurde im April 2 eine internationale Kampagne gestartet. In ihrem Rahmen fordern Nichtregierungsorganisationen ein vollständiges Verbot des Einsatzes autonomer Waffen. Experten aus vielen Ländern diskutierten dieses Thema erstmals auf der UN-Abrüstungskonferenz im Mai 2014 in Genf. Ein einige Monate später von Human Rights Watch und Wissenschaftlern der Harvard University veröffentlichter Bericht sagte, dass die autonomen zu gefährlich seien – sie wählten ihre eigenen Ziele und töteten Menschen. Gleichzeitig ist nicht ganz klar, wer zur Rechenschaft gezogen werden soll.

2. Demonstration im Rahmen der Aktion „Killerroboter stoppen“

Was ein Schwarm kleiner Drohnen alles kann

Streitigkeiten um Killerroboter (ROU) dauern seit Jahren an und reißen nicht ab. Die letzten Monate brachten neue Versuche, Militärroboter zu stoppen, und eine Welle von Berichten über neue Projekte dieser Art, von denen einige sogar unter realen Kampfbedingungen getestet werden.

Im November 2017 wurde ein Video gezeigt tödliche Schwärme von Mini-Drohnen ., in erschreckender Aktion. Die Zuschauer haben gesehen, dass wir nicht mehr die schweren Kriegsmaschinen, Panzer oder Raketen brauchen, die von den Predators geworfen werden, um massenhaft und mit Maschinengewehren zu töten. Lead Director Stuart Russell, Professor für künstliche Intelligenz in Berkeley, sagt:

-

Letzten Frühling fünfzig Professoren Die weltweit führenden Universitäten haben einen Appell an das Korea Institute of Advanced Science and Technology (KAIST) und seinen Partner Hanwha Systems unterzeichnet. Sie kündigten an, nicht mit der Universität zu kooperieren und KAIST-Gäste aufzunehmen. Grund war der von beiden Institutionen durchgeführte Bau von "autonomen Waffen". KAIST dementierte die Medienberichte.

Kurz darauf in den USA mehr als 3 Google-Mitarbeiter protestierte gegen die Arbeit des Unternehmens für das Militär. Sie waren besorgt, dass Google mit einem Regierungsprojekt mit dem Codenamen Maven zusammenarbeitet, das darauf abzielt, mithilfe von KI Objekte und Gesichter in Militärdrohnenvideos zu erkennen. Das Management des Unternehmens sagt, dass das Ziel von Maven darin besteht, Leben zu retten und Menschen vor mühsamer Arbeit zu bewahren, nicht vor Aggression. Die Demonstranten waren nicht überzeugt.

Der nächste Teil der Schlacht war die Deklaration Experten für künstliche Intelligenz, inkl. Arbeit an einem Google-Projekt und Elona Muska. Sie versprechen, keine Roboter zu entwickeln. Sie fordern die Regierungen außerdem auf, ihre Bemühungen zur Regulierung und Begrenzung dieser Waffen zu intensivieren.

In der Erklärung heißt es unter anderem, dass „die Entscheidung, einem Menschen das Leben zu nehmen, niemals von einer Maschine getroffen werden sollte“. Obwohl die Armeen der Welt mit vielen automatischen Geräten ausgestattet sind, manchmal mit einem hohen Grad an Autonomie, befürchten viele Experten, dass diese Technologie in Zukunft vollständig autonom werden und das Töten ohne Beteiligung eines menschlichen Bedieners und Kommandanten ermöglichen könnte.

Experten warnen auch davor, dass autonome Tötungsmaschinen noch gefährlicher sein könnten als „nukleare, chemische und biologische Waffen“, weil sie leicht außer Kontrolle geraten können. Insgesamt wurde im Juli letzten Jahres ein Brief unter der Schirmherrschaft des Future of Life Institute (FGI) von 170 Organisationen und 2464 Einzelpersonen unterzeichnet. In den ersten Monaten des Jahres 2019 forderte eine Gruppe von FLI-nahen Medizinern erneut einen neuen Brief, der die Entwicklung von Waffen mit künstlicher Intelligenz (KI) verbietet.

Das letztjährige UN-Treffen im August in Gniewo über die mögliche gesetzliche Regulierung militärischer "Killerroboter" endete mit einem Erfolg ... Maschinen. Eine Gruppe von Ländern, darunter die Vereinigten Staaten, Russland und Israel, blockierte weitere Arbeiten zur Einführung eines internationalen Verbots dieser Waffen (Entwurf einer Konvention über das Verbot oder die Beschränkung der Verwendung bestimmter konventioneller Waffen, CCW). Es ist kein Zufall, dass diese Länder für ihre Arbeit an fortschrittlichen Systemen autonomer und robotischer Waffen bekannt sind.

Russland setzt auf Kampfroboter

Präsident Wladimir Putin wird oft mit den Worten über militärische KI-Systeme und Kampfroboter zitiert:

-.

spricht offen über die Entwicklung autonomer Waffen. Der Chef des Generalstabs seiner Streitkräfte, General Valery Gerasimov, sagte kürzlich gegenüber der Militärnachrichtenagentur Interfax-AVN, dass der Einsatz von Robotern eines der Hauptmerkmale zukünftiger Kriege sein wird. Er fügte hinzu, dass Russland es versuche das Schlachtfeld vollständig automatisieren. Ähnliche Kommentare wurden vom stellvertretenden Ministerpräsidenten Dmitri Rogosin und Verteidigungsminister Sergej Schoigu abgegeben. Der Vorsitzende des Verteidigungs- und Sicherheitsausschusses des Föderationsrates, Wiktor Bondarew, sagte, Russland strebe nach Entwicklung Roju-TechnologienDies würde es Drohnennetzwerken ermöglichen, als eine Einheit zu fungieren.

Dies ist nicht verwunderlich, wenn wir uns daran erinnern, dass die ersten Teletanks in den 30er Jahren in der Sowjetunion entwickelt wurden. Sie wurden zu Beginn des Zweiten Weltkriegs eingesetzt. Heute schafft auch Russland Panzerroboter immer autonomer werden.

Putins Staat schickte kürzlich seinen eigenen nach Syrien Unbemanntes Kampffahrzeug Uran-9 (3). Das Gerät verlor den Kontakt zu Bodenkontrollpunkten, hatte Probleme mit dem Aufhängungssystem und seine Waffen funktionierten nicht perfekt und trafen keine sich bewegenden Ziele. Es klingt nicht sehr ernst, aber viele halten den syrischen Wipe für einen guten Kampftest, der es den Russen ermöglicht, die Maschine zu verbessern.

Roscosmos hat einen vorläufigen Plan genehmigt, bis August dieses Jahres zwei Roboter zur Internationalen Raumstation zu schicken. Fedor (4) in der unbemannten Union. Nicht wie eine Last, aber. Wie im Film RoboCop schwingt Fedor eine Waffe und demonstriert bei Schießübungen tödliche Treffsicherheit.

Die Frage ist, warum sollte ein Roboter im Weltraum bewaffnet sein? Es besteht der Verdacht, dass es nicht nur um Bodenanwendungen geht. Währenddessen zeigte der russische Waffenhersteller Kalaschnikow auf der Erde eine Visualisierung Roboter Igorekwas zwar für viel Gelächter sorgte, aber signalisiert, dass das Unternehmen ernsthaft an autonomen Kampffahrzeugen arbeitet. Im Juli 2018 gab Kalashnikov bekannt, dass er eine Waffe baut, mit der er Entscheidungen über „Schießen oder nicht schießen“ trifft.

Zu diesen Informationen sollten Berichte hinzugefügt werden, dass der russische Büchsenmacher Digtyarev einen kleinen entwickelt hat autonomer Panzer Nerecht der sich selbstständig lautlos auf sein Ziel zubewegen und dann mit gewaltiger Wucht explodieren kann, um andere oder ganze Gebäude zu zerstören. Und auch Panzer T14 Armee , der Stolz der russischen Streitkräfte, wurde für eine mögliche Fernsteuerung und unbemanntes Fahren konzipiert. Sputnik behauptet, dass russische Militäringenieure daran arbeiten, den T-14 zu einem vollständig autonomen gepanzerten Fahrzeug zu machen.

Widerspruchsrichtlinie

Das US-Militär selbst hat dem Autonomiegrad seiner Waffen eine ziemlich klare Grenze gesetzt. Im Jahr 2012 erließ das US-Verteidigungsministerium die Richtlinie 3000.09, die besagt, dass Menschen das Recht haben sollten, Einwände gegen die Aktionen bewaffneter Roboter zu erheben. (obwohl es einige Ausnahmen geben kann). Diese Richtlinie bleibt in Kraft. Die aktuelle Politik des Pentagons ist, dass der entscheidende Faktor beim Einsatz von Waffen immer eine Person sein sollte und dass dies ein solches Urteil sein sollte. den Kriegsgesetzen entspricht.

Obwohl die Amerikaner seit Jahrzehnten Fliegen, Predator, Reaper und viele andere Supermaschinen einsetzen, waren und sind sie keine autonomen Modelle. Sie werden von Bedienern ferngesteuert, manchmal aus einer Entfernung von mehreren tausend Kilometern. Mit der Premiere des Prototyps begann eine hitzige Diskussion über die Autonomie solcher Maschinen. Drohne X-47B (5), die nicht nur selbstständig flogen, sondern auch von einem Flugzeugträger abheben, darauf landen und in der Luft auftanken konnten. Die Bedeutung ist auch, ohne menschliches Eingreifen zu schießen oder zu bombardieren. Das Projekt wird jedoch noch getestet und überprüft.

5. Tests des unbemannten X-47B auf einem amerikanischen Flugzeugträger

Im Jahr 2003 begann das Verteidigungsministerium mit Experimenten mit einem kleinen panzerähnlichen Roboter. SPOES mit einem Maschinengewehr ausgestattet. 2007 wurde er in den Irak geschickt. Das Programm endete jedoch, nachdem der Roboter anfing, sich unregelmäßig zu verhalten und sein Gewehr unregelmäßig bewegte. Infolgedessen stellte das US-Militär die Forschung an bewaffneten Bodenrobotern für viele Jahre ein.

Gleichzeitig hat die US-Armee ihre Ausgaben für Operationen von 20 Millionen US-Dollar im Jahr 2014 auf 156 Millionen US-Dollar im Jahr 2018 erhöht. Im Jahr 2019 ist dieses Budget bereits auf 327 Millionen US-Dollar gestiegen. Dies ist eine kumulierte Steigerung von 1823 % in nur wenigen Jahren. Experten sagen, dass das US-Militär bereits 2025 ein Schlachtfeld haben könnte mehr Robotersoldaten als Menschen.

In letzter Zeit wurden viele Kontroversen von der US-Armee verursacht und angekündigt ATLAS-Projekt () - automatisch. In den Medien wurde dies als Verstoß gegen die oben genannte Richtlinie 3000.09 gewertet. Das US-Militär bestreitet jedoch und versichert, dass der Ausschluss einer Person aus dem Entscheidungszyklus nicht in Frage käme.

KI erkennt Haie und Zivilisten

Verteidiger autonomer Waffen haben jedoch neue Argumente. Prof. Ronald Arkin, ein Robotiker am Georgia Institute of Technology, stellt dies in seinen Veröffentlichungen fest In der modernen Kriegsführung sind intelligente Waffen unerlässlich, um zivile Opfer zu vermeiden, da Techniken des maschinellen Lernens effektiv dazu beitragen können, zwischen Kombattanten und Zivilisten sowie wichtigen und unwichtigen Zielen zu unterscheiden.

Ein Beispiel für solche KI-Fähigkeiten ist das Patrouillieren an australischen Stränden. Drohnen Little Ripperausgestattet mit dem von der University of Technology Sydney entwickelten SharkSpotter-System. Dieses System scannt das Wasser automatisch nach Haien und warnt den Bediener, wenn es etwas Unsicheres sieht. (6) Es kann Menschen, Delfine, Boote, Surfbretter und Gegenstände im Wasser identifizieren, um sie von Haien zu unterscheiden. Es kann etwa sechzehn verschiedene Arten mit hoher Genauigkeit erkennen und identifizieren.

6. Anerkannte Haie im SharkSpotter-System

Diese fortschrittlichen Methoden des maschinellen Lernens erhöhen die Genauigkeit der Luftaufklärung um mehr als 90 %. Zum Vergleich: Ein menschlicher Bediener in einer ähnlichen Situation erkennt 20-30 % der Objekte auf Luftbildern genau. Zusätzlich wird die Identifizierung vor einem Alarm immer noch von einem Menschen überprüft.

Auf dem Schlachtfeld kann der Bediener, der das Bild auf dem Bildschirm sieht, kaum feststellen, ob es sich bei den Menschen am Boden um Kämpfer mit AK-47 in der Hand oder beispielsweise um Bauern mit Hechten handelt. Arkin stellt fest, dass Menschen dazu neigen, „das zu sehen, was sie sehen wollen“, insbesondere in Stresssituationen. Dieser Effekt trug 1987 zum versehentlichen Abschuss eines iranischen Flugzeugs durch die USS Vincennes bei. Natürlich wären seiner Meinung nach KI-gesteuerte Waffen besser als die aktuellen "Smart Bombs", die nicht wirklich empfindungsfähig sind. Im vergangenen August traf eine saudische lasergelenkte Rakete einen Bus voller Schulkinder im Jemen und tötete vierzig Kinder.

„Wenn ein Schulbus richtig gekennzeichnet ist, kann es relativ einfach sein, ihn in einem autonomen System zu identifizieren“, argumentiert Arkin in Popular Mechanics.

Diese Argumente scheinen die Aktivisten gegen automatische Killer jedoch nicht zu überzeugen. Neben der Bedrohung durch Killerroboter muss ein weiterer wichtiger Umstand berücksichtigt werden. Selbst ein „gutes“ und „aufmerksames“ System kann von sehr bösen Leuten gehackt und übernommen werden. Dann verlieren alle Argumente zur Verteidigung militärischer Ausrüstung ihre Kraft.

Kommentar hinzufügen