Carlolinum Osnabrück
28.05.2019

Selbstfahrende Autos als philosophisches Problem - Ein Besuch bei den Neuroinformatikern der Uni Osnabrück

Vor kurzem besuchte der Philosophiekurs 11 von Frau Reischert die neuroinformatische Abteilung der Universität Osnabrück. Dabei standen künstliche Intelligenz in Form von selbstfahrenden Autos und die damit verbundenen ethischen Probleme im Fokus.

Zunächst beschäftigten wir uns mit einem altbekannten Problem der Ethik, dem Trolley-Problem. Dabei geht es im ersten Fall um Folgendes. Ein Zug rast auf direktem Weg auf fünf Arbeiter auf den Gleisen zu. Wenn man eine Weiche umstellt, tötet man den Arbeiter auf diesem Gleis, kann die anderen fünf aber retten. Die meisten Menschen stellen in dem Fall die Weiche um. Ändern wir das Szenario aber ein wenig und machen aus dem passiven ein aktives Tötungsdelikt, wählen viele Menschen anders: Die Situation bleibt die Gleiche, in diesem Fall haben wir nicht mehr die Möglichkeit des Umstellens einer Weiche, sondern es gelingt uns nur die Arbeiter zu retten, wenn wir einen  korpulenten Mann von einer Brücke auf das Gleis stoßen. In dieser Situation handeln die meisten Menschen nicht und lassen die Arbeiter sterben – obwohl die eigentliche ethische Fragestellung sich nicht verändert hat. Können wir also unseren moralischen Intuitionen trauen? Das mag wie ein abstraktes philosophisches Gedankenexperiment klingen, denn es ist unwahrscheinlich, dass wir je in eine solche Situation geraten.

Doch selbstfahrende Autos sind längst kein abstraktes Gedankenexperiment mehr.

An der Uni Osnabrück wird derzeit intensiv an einer Modellierung des menschlichen moralischen Verhaltens gearbeitet, mithilfe von Virtual-Reality textbasierten Tests. Wir selbst durften ebenfalls mit einer VR-Brille testen, inwieweit wir schon heute der Technik vertrauen. Dabei fuhren wir in drei Szenarien durch eine Stadt. Entweder mit einem Fahrer, einer Stimme wie Siri, oder das Auto fuhr selbst. Unser Vertrauen wurde durch unsere Blickrichtungen und Reaktionen beurteilt, wenn zum Beispiel ein Fußgänger überraschend die Straße überquerte. Die Frage war, wie selbstfahrende Autos in Dilemmasituationen entscheiden sollen. Wie sollen solche Autos programmiert werden? Ist das Leben eines Kindes mehr wert als das Leben einer älteren Person? Ist unser eigenes Leben mehr wert als das eines beliebigen Fußgängers? Dürfen wir solch utilitaristische Abwägungen überhaupt vornehmen? Oder müssen wir das in Zukunft sogar, weil die meisten Verkehrstoten im Straßenverkehr aufgrund von menschlichem Versagen zu beklagen sind?

Dem Philosophen David Precht zufolge verletzen wir mit einer solchen Programmierung und einem solchen Algorithmus die Würde des Menschen, da das Aufwiegen eines Menschenlebens gegen ein anderes klar gegen Artikel 1 unseres Grundgesetzes verstößt: „Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlicher Gewalt.“

Wir danken Herrn Professor Gordon Pipa für einen spannenden Einblick in die Welt der Neuroinformatik, die eng mit philosophischen Fragestellungen verknüpft ist.