Jetzt ist es passiert. Es gibt den ersten Toten mit einem Tesla S-Modell, das in einem teilautonomen Modus gefahren wurde. Und schon gerät eine neue Technik tendenziell in Verruf. Jedenfalls in jenen Medien, die schnell mit einer Meinung daher kommen – und wenig Ahnung vom Thema haben, aber Stimmung machen wollen.
So ähnlich muss es gewesen sein, als vor mehr als 200 Jahren die technisch verbesserte Dampfmaschine entwickelt wurde, die eine gesellschaftliche Zäsur herbeiführte. Zunächst vernichtete sie Existenzen durch Arbeitsplatzverluste, schließlich aber hat sie die Gesellschaft doch segensreich weitergebracht, weil durch ihre maschinelle Hilfe dem Menschen körperliche Schwerstarbeit zunehmend erspart blieb, die sonst weiter auf die Knochen gegangen wäre und die Gesundheit Hunderttausender ruiniert hätte. Neben der vor allem angestrebten rationelleren industriellen Produktion, die durch die Dampfmaschine erreicht worden ist, wurde auf diese Weise auch den Menschen Erleichterung verschafft.
Auch Technik kann versagen, aber meistens versagt der Mensch
Eine ähnliche Zäsur steht der weltweiten Gesellschaft demnächst mit dem kommenden selbstfahrenden Automobil wieder bevor, nämlich die durch eine neue Technik angestrebte Unfallfreiheit. Soweit die Vision. Und wieder soll Technik Arbeit übernehmen. Diesmal jene am Steuer, denn dort ist der Mensch und seine Fehlbarkeit das größte Unfallrisiko. Es geht um permanente und uneingeschränkte Aufmerksamkeit, und auch darum, stets die richtigen Entscheidungen zu treffen. Nicht gerade eine Domäne des Menschen. Aber auch Technik versagt gelegentlich. Vor allem zu Anfang klappt es nicht immer, den hohen Anspruch auch einzulösen.
Wie Anfang Juli 2016 bekannt geworden ist, hat eine Selbstfahrautomatik einem Menschen das Leben gekostet. Leider. Bereits im Mai kam ein Tesla-Fahrer in Florida bei einem Unfall mit einem Lastwagen um. Wenn man so will, dann wiederholt sich der Dampfmaschinen-Effekt von vor 200 Jahren, als die Fortschrittsverweigerer vor dieser Höllenmaschine aus verschiedenen Gründen warnten. Jetzt ist es ähnlich. Zahlreiche Unkenrufe wurden und werden laut. Das eingeschaltete Abstands- und Spurhaltesystem des Tesla, das Hindernisse automatisch erkennen und dann bremsen sollte, hat den Truck nicht erkannt, und somit ist der Wagen unter dem Sattelaufleger durch geprescht, hat sich dabei das Dach beinahe ganz abrasiert und ist schließlich gegen einen Strommast geprallt. Der Fahrer hat den Aufprall nicht überlebt.
Bei dem System, das den Tesla automatisch auf Kurs halten sollte, handelt es sich um die Beta-Version einer Vorrichtung, also eine, die noch nicht hundertprozentig das kann, was sie eines Tages können muss. Es ist nicht unüblich, dass solche noch nicht ganz ausgereiften Techniken bereits normalen Autofahrern zum Testen unter Realbedingungen zur Verfügung gestellt werden. Die wesentlichen Dinge müssen sie dabei auf alle Fälle beherrschen. Also zum Beispiel die Erkennung von Hindernissen und das Bremsen davor. Warum das in dem beschriebenen Fall nicht geklappt hat, ist noch unklar.
Wahrscheinlich hat eine Blendung zu einer falschen Entscheidung geführt
Die US-Verkehrssicherheitsbehörde NHTSA ermittelt nicht nur in dem Fall, sondern nimmt auch weitere etwa 25000 Model S unter die Lupe, die mit der gleichen Technik ausgestattet sind wie der Wagen, der in Florida zur Katastrophe führte. Womöglich waren unglückliche Umstände dafür verantwortlich. Die Frage des Tageslichts zum Beispiel in Verbindung mit der Farbe des Lastwagens kann eine zentrale Rolle gespielt haben. Der Truck war weiß und die Sonne schien grell. Das kann das teilautonome System aus Kameras, Radar und weiterer Sensorik geblendet und zu falschen Entscheidungen geführt haben. Ein Tesla-Sprecher sagte dazu: „Bei diesem Unfall führte die hohe weiße Seitenwand des Anhängers zusammen mit einer Radar-Signatur, die der eines hochhängenden Straßenschilds sehr ähnlich war, dazu, dass keine automatische Bremsung ausgelöst wurde.“
Wenn man berücksichtig, dass die Nutzer solcher elektronischen Vorrichtungen von denselben immer aufgefordert werden, keinesfalls andauernd die Hände vom Lenkrad zu nehmen und während der Fahrt auch nichts anderes zu machen, etwa auf einem separaten DVD-Spieler einen Film anzuschauen, dann muss man eigentlich davon ausgehen, dass ein hohes Maß an Sicherheit vorhanden ist. Eigentlich. In dem Florida-Fall war das offenbar nicht so. Es gibt Gerüchte, dass solch ein DVD-Player an Bord war und auf lief. Wenn das stimmt, sofern es je zu ermitteln sein sollte, dann war die Ablenkung vom Verkehrsgeschehen total. Ferner war der Mann bekannt dafür, dass er der Youtube-Gemeinde stolz mehrere Filmchen von sich und seinem selbstfahrenden Tesla im Internet zeigte.
Kritiker stellen angesichts dessen die auf den ersten Blick berechtigte Frage, warum solch ein System eingeführt wird, wenn es dennoch der menschlichen Überwachung bedarf? Bei der Antwort sieht man, dass die Ingenieure, die diese Elektronik entwickelt haben, weitergedacht haben als die Kritiker: Solche Elektronik ist vor allem dafür gedacht, im Notfall einzugreifen und den Menschen zum Beispiel vor den Folgen eines Sekundenschlafes zu schützen, noch rechtzeitig zu bremsen oder den Wagen in der Spur zu halten, bis der Mensch wieder Hand ans Steuer gelegt und die Regie übernommen hat.
Wie es zu dem Unfall in Florida kommen konnte, werden wir mutmaßlich nie erfahren. Wir wissen allerdings auch nicht, ob es ähnliche Unfälle mit gleichem Ausgang nicht längst bei Autos deutscher Hersteller gegeben hat. Denn Mercedes, BMW, VW, Audi, Porsche & Co. bieten solche und noch weit ausgefuchstere Systeme bereits viel länger an als Tesla. Bekanntgeworden sind Vorfälle damit bisher nicht. Was nicht heißt, dass es sie nicht gegeben hat.
Der Fahrer muss die Hände immer wieder ans Lenkrad legen
Der Schreiber dieser Zeilen hat vor drei, vier Jahren selbst mal das Experiment mit einem Ford Focus gemacht, der einen Spurhalter als Extra an Bord hatte. Der hat die Aufgabe, nicht nur auf Geraden die Spur zu halten, sondern auch in Kurven. Der elektronische Schlauberger orientiert sich dabei mit Hilfe von Kameras an den weißen Linien auf der Straße. Der Test lief in einer lang gezogenen Autobahn-Rechtskurve. Leicht ruckelig zwar, weil der aufpassende Computer immer wieder Lenkkorrekturen vornehmen musste, blieb der Wagen aber doch wie von Geisterhand geführt in der Spur. Man hätte bequem einen dicken Hamburger währenddessen mit beiden Händen zum Mund führen können. Passiert ist nichts. Und außerdem hat der Computer auch etwa alle zehn oder 15 Sekunden gefordert, bitte schön die Hände wieder ans Lenkrad zu legen. Dafür reichte eine kurze Berührung, schon war der elektronische Aufpasser zufrieden. Bis zur nächsten Aufforderung.
Dass Tesla nun die Kritik abbekommt, ist also nicht mehr als ein Zufall. Dabei liegt das eigentliche Problem selbstfahrender Autos ganz wo anders. Wenn eines Tages tatsächlich Autos auf der Straße rumkurven, bei denen die Technik und nicht mehr der Fahrer lenkt, dann läuft es im Extremfall auf ein höllisches ethisches Dilemma hinaus. Man stelle sich folgende Szene vor: Der Computer des autonom fahrenden Wagens hat erkannt, dass das Fahrzeug unausweichlich in einer Sekunde entweder rechts gegen eine Mauer prallen wird oder alternativ in der Mitte auf den vorausfahrenden Laster donnert. In jedem Fall ist das Leben der Insassen gefährdet, wenn der allmächtige Rechner in Sekundenbruchteilen keinen Ausweg findet. Etwa nach links steuern. Doch das ist kein Ausweg, denn dort läuft eine Mutter mit Kinderwagen. Wohin also soll der Rechner lenken? Bislang zeichnet sich noch kein Computerprogramm ab, das auch nur annähernd solch eine Wertvorstellung von Menschenleben hat wie wir sie besitzen. HARALD KAISER
Kommentar hinterlassen zu "Gastbeitrag von Harald Kaiser: Tesla wird zu Unrecht kritisiert"