Autonomes Fahren

Nach der Air-Berlin-Pleite sind in Deutschland die Preise vor allem für Inlandsflüge in erheblichem Maße gestiegen. Nachdem das Bundeskartellamt beim Verkauf des größten Teils von Air Berlin – vorsichtig formuliert erstaunlicherweise – eine vornehme Zurückhaltung an den Tag gelegt hatte, nahm es nun nach nicht abebbenden öffentlichen Beschwerden doch tatsächlich Ermittlungen gegen die Lufthansa auf.

Schnell kam dabei aber heraus, dass die Lufthansa nach Eigenaussage an der aktuellen Preisentwicklung schuldlos ist, die Verantwortung liege einzig und allein bei Algorithmen. Eine mehr als seltsame Argumentation. Und überraschenderweise gibt sich nicht einmal das Kartellamt damit zufrieden. Es will seine Untersuchungen fortsetzen.

Die Lufthansa-Argumentation macht aber in aller Deutlichkeit auf ein Problem aufmerksam, dass in immer größerer Tragweite zutage treten wird. Die Macht von „emotionslosen“ Algorithmen, die zentrale Bereiche des öffentlichen Lebens bestimmen könnten. Ein Beispiel ist das Autonome Fahren. Hier werden Algorithmen dann eventuell über Leben und Tod entscheiden. Es ist keine Zukunftsmusik. Die Macht der Algorithmen verdeutlicht ein Blick über den großen Teich. Schon heute bestimmen im US-Justizsystem Algorithmen das Strafmaß von Straftätern, indem sie Wiederholungsgefahr und Rückfallwahrscheinlichkeit ermitteln.

Doch was sollte die Konsequenz sein? Klar ist, dass vor der breitflächigen Nutzung von Algorithmen in kritischen Bereichen wie dem Autonomen Fahren etliche juristische und ethische Fragestellungen zu klären sind. Und hier stehen wir heute bestenfalls am Anfang.

Darüber hinaus stellt sich aber auch noch eine andere und vermutlich äußerst schwierige Frage. Wie sieht es mit der Überwachung beziehungsweise Kontrolle aus? Bezogen auf das Beispiel Autonomes Fahren wäre dann zu fragen: Wie ist ein genutzter Algorithmus überhaupt aufgebaut, was umfasst er konkret und welche Instanzen werden Zugriffs- und Kontrollmöglichkeiten haben? Die Antworten dürften allein schon unter dem Aspekt „Intellectual Property“ nicht leicht ausfallen. Aber im Hinblick auf eine maximale Transparenz bei essenziellen gesellschaftlichen Umwälzungen sind sie unverzichtbar – und vielfach auch unerlässlich, um komplexen Problemstellungen zufriedenstellend zu begegnen. Nicht umsonst hat auch das Bundeskartellamt Interesse am Programmcode der Lufthansa bekundet. Dass er offengelegt wird, dürfte jedoch mehr als fraglich sein.

menuseperator

Es wird ernst, anders kann man es kaum sagen. Was lange wie eine Zukunftsvision erschien, findet mehr und mehr Einsatz in der Praxis: das selbstfahrende, nach offizieller Terminologie „autonome“ Auto steht quasi schon vor der Tür. Also nicht bei mir, falls Sie das jetzt meinen, sondern eher vor unser aller Haustür, als Transportmittel der Zukunft. Vorbei das lange Zeit glorifizierte Gefühl von Freiheit und Unabhängigkeit hinter dem Steuer, jetzt ist der Fahrzeuglenker, dank künstlicher Intelligenz (KI) und Deep Learning, eine Mischung aus Rechenzentrum auf Rädern und HAL 9000, dem Supercomputer aus „2001: Odyssee im Weltraum“. Es wird nicht mehr lange dauern, dann gehören sie ganz selbstverständlich zum Straßenbild. Die Weichen dafür sind gestellt, wie die im Moment immer zahlreicheren Berichte über die Pläne von Herstellern wie Google, Praxis-Tests in Berlin und London  oder die Absicht von Uber, eine Flotte autonomer Fahrzeuge aufzubauen, deutlich machen.

Die Technik ist also einsatzbereit, doch nach und nach rücken andere Aspekte ins Blickfeld, die der Einsatz im Straßenverkehr mit sich bringt: Welches Gefahrenpotenzial bergen Cyberattacken auf die Fahrzeuge? Wie lassen sich Daten des Fahrzeugs oder der Insassen schützen? Wie muss eine den neuen Gegebenheiten angepasste Gesetzgebung aussehen? Welche Auswirkungen haben autonome Fahrzeuge auf die künftige Verkehrsplanung? Und was ist überhaupt, wenn ein selbstfahrendes Auto einen Unfall verursacht? Auch wenn menschliches Versagen in dem Fall ja offensichtlich auszuschließen ist, wer muss zahlen? Vielleicht am Ende der Softwareentwickler? Wie komplex die Steuerung eines Fahrzeuges in der Realität ist, zeigt auch die Tatsache, dass Testfahrzeuge immer mal wieder in Unfälle verwickelt sind, wie jüngst zu beobachten.

Noch komplizierter wird es, wenn ein autonomes Fahrzeug selbst entscheiden muss, welches von zwei denkbaren Übeln denn bitteschön das kleinere ist. Wen gilt es zu schützen, Insassen oder eher Fußgänger? Und nach welchen Kriterien wird bewertet? Diese Entscheidung einer Maschine zu überlassen, ist sicher nicht nur für mich ein mulmiger Gedanke.

Wie groß das moralische Dilemma in so einer Situation tatsächlich sein kann, zeigt die Moral Machine, ein Experiment des MIT (Massachusetts Institute of Technology), bei dem ein führerloses Fahrzeug entweder auf Fußgänger oder eine Betonwand zusteuert. Als außenstehender Beobachter soll man sich für das kleinere Übel entscheiden: Wen opfert man eher, zwei Mitfahrer oder drei Fußgänger? Für Katzenliebhaber wird es noch haariger, soviel sei verraten.

Noch ist unklar, wer darüber entscheidet, wie ein selbstfahrendes Auto in einer bestimmten Situation zu reagieren hat. Bleibt es den Herstellern überlassen, ist anzunehmen, dass sie vor allem die Fahrzeuginsassen schützen wollen, was für andere Verkehrsteilnehmer schlecht ausgehen könnte.

Damit es uns am Ende nicht so geht wie den Fußballern des BVB im Spot eines deutschen Autoherstellers, sollte die Überlegung, wer bei autonomen Fahrzeugen nicht nur steuert sondern auch die Verantwortung trägt, abgeschlossen sein, bevor der praktische Einsatz beginnt.  

Übrigens, heute (am 22. November) ist „Mach-eine-Spritztour-Tag“ (der amerikanische Go For A Ride Day), wenn das kein Omen ist – aber halten Sie das Steuer gut fest!

menuseperator
Subscribe to Autonomes Fahren