059 – Todesalgorithmus von Roberto Simanowski

Heute blicken wir mal wieder auf die philosophischen Fragen, die sich aus dem technologischen Fortschritt ergeben. Amanda stellt uns das Buch „Todesalgorithmus“ von Roberto Simanowski vor, in dem der Autor provokante Fragen in Bezug auf unser heutiges und zukünftiges Verhältnis zur „künstlichen Intelligenz“ stellt.

Ausgehend vom Algorithmus in selbstfahrenden Autos, welcher entscheidet, wer oder was bei einem Unfall zu Schaden kommt, beleuchtet er verschiedene ethische Probleme: Von der Frage nach unseren ethischen Grundsätzen, deren Verallgemeinerung bis hin zur Frage, ob wir – als Menschheit – überhaupt ein gemeinsames Ziel haben. Und falls ja, ob wir uns dann nicht einer allwissenden KI unterordnen sollten, um dieses zu erreichen.

Shownotes

Quellen und so

Intro und Outro der Episode stammen aus dem Stück Maxixe von Agustin Barrios Mangore, eingespielt von Edson Lopes (CC-BY).

Das Umblättern zwischen den Teilen des Podcasts kommt hingegen von hoerspielbox.de.

Zwischen zwei Deckeln findest du auch im sozialen Medium deiner Wahl: Mastodon, Instagram und Facebook.

Verfasst von:

Ein Kommentar

  1. 17. Oktober 2023
    Antworten

    Zu der Y-Weiche hatte ich in meiner Zeit bei einem Autohersteller eine interessante Diskussion zur der Frage aus der Engineering-Perspektive.
    Es gibt etwas, dass ich als Entscheidungsillusion bezeichne: Für einen Beobachter sieht es so aus, als würde ein Autofahrender entscheiden, welchen Weg er im Falle eines Unfalls wählt. Tatsächlich geht das für den Autofahrenden aber viel zu schnell, als eine berechnende Entscheidung zu treffen (da gibt’s spannende Perspektiven in der Verkehrsforschung/Unfallforschung, dass Unfälle deshalb schlimmer sind, als sie sein müssten…)
    Es findet also keine Entscheidung im dem Sinne statt, wie sie bei der Y-Weichen-Diskussion angenommen wird. Das ist eine reine Kopf-Theorie ohne Umsetzungsmöglichkeit.

    Dazu kommt dann, dass die Technik idR Hindernisse viel früher erkennen kann und die Situation vermeidet. Vereinfacht: Die Sensorik kann z.B. unter anderen Autos drunter durch schauen und ist nicht – wie Menschen – rein auf das Sichtfeld der Augen begrenzt. Wenn aber hier ein Fehler passiert – z.B. wird ein Hindernis nicht erkannt – dann kann praktisch gar nicht mehr entschieden werden, weil ja in dem Rechnersystem nicht in einen Zustand gewechselt wird, in dem die Entscheidungslogik getriggert würde.

    Insofern ist die Frage, ob und wie das Auto das „entscheidet“, praktisch vollkommen egal. Relevant ist die Frage, wie viele Sensoren notwendig sind und ob die Sensoren so zusammenspielen, dass sie im Fall, dass einer ein Hindernis erkennt, das Auto bremsen oder ob eine Mehrheit der Sensoren entscheiden muss. Im Engineering wird da idR passiv gearbeitet, also wenn einer der Sensoren sagt: Da ist was! dann bremst das Auto.

    Alles, was in Richtung Daten und Netz diskutiert wird, muss allein aufgrund der verfügbaren Rechenzeit auf die Navigation begrenzt bleiben – die Steuerung muss immer von lokalen Parametern (Sensoren) abhängen.

    Ich fand diese Perspektive total spannend und mir fehlt diese praktische Betrachtung in all den Diskussionen immer.

    Die Folge fand ich richtig cool und würde unbedingt noch Cathy O’Neil mit Weapons of Math Destruction als Leseempfehlung in die Runde werfen.

    Und ja, Adrian Daub wurde in Deutschland geboren 😉

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert