Wer wird von einem selbstfahrenden Auto getötet? Maschine, rette so viele Menschen wie möglich, aber vor allem rette mich!
der Technik

Wer wird von einem selbstfahrenden Auto getötet? Maschine, rette so viele Menschen wie möglich, aber vor allem rette mich!

Wie sollte das autonome System eines Autos reagieren, wenn es im Falle eines drohenden Unfalls schnell entscheiden muss, wen es opfern möchte? Passagiere opfern, um Fußgänger zu retten? Ist es notwendig, einen Fußgänger zu töten, um beispielsweise eine vierköpfige Familie im Auto zu schonen? Oder sollte er sich vielleicht immer zuerst selbst schützen?

Angesichts der Tatsache, dass allein in Kalifornien bereits mehr als 1 Unternehmen für persönliche Tests zugelassen sind, kann man kaum sagen, dass sich die Branche auf ethische Dilemmata vorbereitet. Im Moment kämpft es mit grundlegenderen Problemen – dem Betrieb und der Navigationseffizienz von Systemen und einfach der Vermeidung von Kollisionen und unerwarteten Ereignissen. In Situationen wie der jüngsten Tötung eines Fußgängers in Arizona oder nachfolgenden Unfällen (XNUMX) drehte sich die Diskussion bisher lediglich um Systemversagen und nicht um eine „ethische Wahl“ des Autos.

Rette die Reichen und die Jungen

Bei der Entscheidungsfindung dieser Art handelt es sich nicht um abstrakte Probleme. Das kann jeder erfahrene Autofahrer bestätigen. Letztes Jahr analysierten Wissenschaftler des MIT Media Lab über vierzig Millionen Antworten von Befragten aus der ganzen Welt, die sie im Rahmen einer 2014 begonnenen Forschung sammelten. Das Umfragesystem, das sie „Ethical Machine“ nannten, zeigte, dass ähnliche Fragen in verschiedenen Teilen der Welt gestellt werden Die Welt. Verschiedene Antworten.

Die allgemeinsten Schlussfolgerungen sind vorhersehbar. In Extremsituationen Menschen retten lieber Menschen als sich um Tiere zu kümmern, mit dem Ziel, so viele Leben wie möglich zu retten, und sind tendenziell jünger als ältere Menschen (2). Es gibt auch einige, aber weniger klare Präferenzen, wenn es darum geht, Frauen gegenüber Männern, Personen mit höherem Status gegenüber ärmeren und Fußgänger gegenüber Autoinsassen zu retten..

2. Wen soll die Maschine retten?

Da fast eine halbe Million Befragte demografische Fragebögen ausfüllten, war es möglich, ihre Präferenzen nach Alter, Geschlecht und religiösen Ansichten zu korrelieren. Die Forscher kamen zu dem Schluss, dass diese Unterschiede die Entscheidungen der Menschen nicht „wesentlich beeinflussten“, stellten jedoch einige kulturelle Einflüsse fest. Die Franzosen beispielsweise neigten dazu, ihre Entscheidungen auf der Grundlage der erwarteten Zahl der Todesfälle abzuwägen, während Japan den geringsten Wert darauf legte. Allerdings wird im Land der aufgehenden Sonne das Leben alter Menschen viel höher geschätzt als im Westen.

„Bevor wir unseren Autos erlauben, ihre eigenen ethischen Entscheidungen zu treffen, müssen wir eine globale Debatte darüber führen. „Wenn Unternehmen, die an autonomen Systemen arbeiten, unsere Präferenzen kennenlernen, werden sie darauf basierende ethische Algorithmen in Autos entwickeln, und die Politik kann damit beginnen, entsprechende gesetzliche Regelungen einzuführen“, schrieben die Wissenschaftler im Oktober 2018 in Nature.

Einer der am Moral Machine-Experiment beteiligten Forscher, Jean-François Bonnefon, fand die Bevorzugung der Rettung von Menschen mit höherem Status (z. B. Führungskräften gegenüber Obdachlosen) beunruhigend. Seiner Meinung nach hängt dies sehr damit zusammen Grad der wirtschaftlichen Ungleichheit in einem bestimmten Land. Wo die Ungleichheit größer war, wurden den Armen und Obdachlosen Opfer gebracht.

Eine frühere Studie ergab insbesondere, dass die Befragten davon überzeugt waren, dass ein autonomes Auto möglichst viele Menschen schützen sollte, auch wenn dies den Verlust von Passagieren bedeutete. Allerdings gaben die Befragten an, dass sie kein so programmiertes Auto kaufen würden. Das erklärten die Forscher Obwohl die Menschen es für ethischer halten, mehr Menschen zu retten, sind sie auch von ihrem eigenen Interesse motiviert, was für die Hersteller ein Signal dafür sein könnte, dass Kunden beim Kauf von Autos mit altruistischen Systemen zurückhaltend sein werden.. Vor einiger Zeit sagten Vertreter von Mercedes-Benz, wenn ihr System nur eine Person retten würde, würden sie den Fahrer und nicht den Fußgänger wählen. Eine Welle öffentlicher Proteste zwang das Unternehmen, seine Erklärung zurückzuziehen. Die Forschung zeigt jedoch deutlich, dass in dieser heiligen Empörung eine Menge Heuchelei steckte.

In einigen Ländern geschieht dies bereits erste Versuche einer gesetzlichen Regelung auf dem Feld. Deutschland hat ein Gesetz verabschiedet, das fahrerlose Autos dazu verpflichtet, Verletzungen oder Todesfälle um jeden Preis zu vermeiden. Das Gesetz besagt auch, dass Algorithmen niemals Entscheidungen auf der Grundlage von Merkmalen wie Alter, Geschlecht, Gesundheit oder Fußgängern treffen können.

Audi übernimmt Verantwortung

Der Designer ist nicht in der Lage, alle Folgen der Nutzung des Autos vorherzusagen. Die Realität kann immer eine Kombination von Variablen liefern, die noch nie zuvor getestet wurden. Dies untergräbt unseren Glauben an die Möglichkeit, eine Maschine überhaupt „ethisch zu programmieren“. Es scheint uns, dass in Situationen, in denen ein Fehler auftritt und eine Tragödie „aufgrund des Verschuldens des Autos“ auftritt, der Hersteller und Entwickler des Systems die Verantwortung tragen sollte.

Vielleicht ist diese Argumentation richtig, vielleicht aber auch nicht, weil sie falsch war. Eher, weil eine Bewegung zugelassen wurde, die nicht zu 2019 % frei von der Möglichkeit ihrer Begehung war. Dies scheint der Grund zu sein, und die Gesamtverantwortung wird von dem Unternehmen nicht abgelehnt, das kürzlich bekannt gab, dass es die Verantwortung für Unfälle mit dem drei Jahre alten A8 übernehmen würde, als dieser das automatische System „Traffic Jam Pilot“ nutzte.

3. Audi Traffic Jam Pilot-Schnittstelle

Auf der anderen Seite gibt es Millionen Menschen, die Auto fahren und auch Fehler machen. Warum also sollten Maschinen, die statistisch gesehen viel weniger Fehler machen als Menschen, was zahlreiche Fehler belegen, in dieser Hinsicht diskriminiert werden?

Wenn jemand denkt, dass die Dilemmata von Ethik und Verantwortung in der Welt autonomer Fahrzeuge einfach sind, denken Sie weiter darüber nach ...

Kommentar hinzufügen