Die Moral Machine des MIT, wie sollten selbstfahrende Autos reagieren, wenn ein Crash unvermeidlich ist?

Die Moral Machine des MIT, wie sollten selbstfahrende Autos reagieren, wenn ein Crash unvermeidlich ist?

Wenn vier von fünf Unfällen durch menschliches Versagen verursacht werden – Fahrervergesslichkeit, Rücksichtslosigkeit, Selbstüberschätzung und Ablenkung – ist das ein gutes Argument für selbstfahrende Autos, bei denen Computer pragmatisch reagieren und Entscheidungen basierend auf Daten und Berechnungen statt auf Impulsen treffen.

Diejenigen, die dagegen sind, dass die künstliche Intelligenz den Menschen ablöst, argumentieren, dass das Fahren in Sekundenbruchteilen Entscheidungen erfordert, auf die es möglicherweise keine richtige Antwort gibt.



Wenn ein Eichhörnchen oder eine Katze auf die Straße flitzt, riskieren Sie dann, auszuweichen und andere Autos zu treffen, was zu einem Stau führt, oder fahren Sie geradeaus weiter, in der Hoffnung, dass das Tier überlebt?

Augenrollen des japanischen Premierministers

Um ähnliche Situationen anzugehen, hat ein Team des Massachusetts Institute of Technology (MIT) die Moral Machine entwickelt, eine Plattform, die sich an Benutzer wendet, um moralische Dilemmata zu lösen und zu fragen, wie selbstfahrende Autos reagieren sollten.

Im Gespräch mit Digital Trends argumentierte der MIT-Forschungsassistent Sohan Dsouza, dass selbstfahrende Autos praktisch unvermeidlich sind, und sagte, dass sie dazu beitragen würden, unzählige Leben zu retten, die jetzt täglich durch menschliche Fahrfehler verloren gehen, und unzähligen anderen, die nicht fahren können, unabhängige Mobilität bieten könnten.

billie eilish neuer look

Um die Probleme anzugehen, die in Szenarien auftreten können, in denen moralische Entscheidungen getroffen werden müssen, fordert das Programm Moral Machine die Teilnehmer auf, 13 Dilemmata zu lösen, und gibt ihnen zusätzliche Informationen wie Alter, Geschlecht, sozialer Status, ob die Opfer gegen das Gesetz verstoßen oder nicht in jedem Szenario.

Die zusammengeführten Ergebnisse könnten eines Tages möglicherweise die Entwicklung ethischer Computermaschinen leiten.

Aber obwohl die Möglichkeit dazu noch in weiter Ferne liegt, zielt die Moral Machine derzeit darauf ab, das Gespräch zu beginnen, damit die Leute debattieren können und durch das Engagement dem Team helfen zu verstehen, wie Menschen die Moral von Entscheidungen von Computern in Situationen wahrnehmen, in denen ein Auto mit etwas oder jemandem zusammenzustoßen, ist unvermeidlich.

Irina Shayk und Tochter

Während einige der Fragen des MIT-Teams leicht zu beantworten sind, werden die Teilnehmer ihre eigene Moral in Frage stellen. Was würden Sie tun, wenn Sie plötzlich einen Bremsversagen haben und die Option besteht, drei Kriminelle oder einen Arzt und zwei Schwangere niederzumähen? Leicht zu beantworten, aber was ist, wenn die Optionen darin bestehen, zwei Sportler oder zwei große (scheinbar ungesunde) Individuen niederzumähen?

Für diejenigen, die die Moralmaschine ausprobieren möchten, können Sie die Ergebnisse jedes Szenarios beurteilen Hier und möglicherweise die Zukunft selbstfahrender Autos mitgestalten.

Ovais Jafar ist Multimedia-Journalist, er twittert als @ovaisjafar

Empfohlen