Selbstfahrende Autos Der Wille ist da, die Technik noch nicht ganz

Berlin · Automatisierte Fahrsysteme versprechen einen Multi-Milliarden-Markt. Deshalb drückt CSU-Verkehrsminister Alexander Dobrindt aufs Tempo, um Rechtssicherheit zu schaffen. Doch die Technik steckt noch immer voller Tücken.

 Das Cockpit eines Tesla-Autos mit Fahr-Automaten.

Das Cockpit eines Tesla-Autos mit Fahr-Automaten.

Foto: afp, sp/aek

Die Fahrt in den Urlaub könnte ja so einfach sein, wenn Vater, Mutter, Sohn und Tochter die Sitze zueinander drehen und Karten spielen, während das Auto computer- und internetgesteuert den besten, schnellsten und sichersten Weg zum Ziel findet. So soll Autofahren nicht in 100, sondern schon in zehn Jahren funktionieren. Und weil das ein Geschäft ist, bei dem es für die innovativ führende deutsche Autoindustrie Hunderte Milliarden Euro zu verdienen gibt, drückt Verkehrsminister Alexander Dobrindt (CSU) aufs Tempo.

Er will schon in Kürze einen Gesetzentwurf vorlegen, der Autofahrern und Autobauern Rechtssicherheit gibt. Doch beim Verfassen des Gesetzes musste er nun von Autopilot auf Handbetrieb umschalten. So einfach ist die schöne neue Autowelt nämlich nicht zu regeln.

So einfach ist das alles nicht

Aus einer ganzen Reihe verschiedener interner Arbeitsentwürfe des Verkehrsministeriums geht nämlich hervor, dass sich die Rechtsexperten selbst noch nicht einig sind, wie die Rechtssicherheit wasserdicht werden soll. Das jüngste, unserer Redaktion vorliegende Papier, kennt gleich mehrere Varianten für eine Erweiterung der Straßenverkehrsordnung. Im Kern soll der Fahrer seine Verpflichtungen erfüllen, wenn er sich zwar während der Fahrt anderen Dingen widmet, aber "derart wahrnehmungsbereit ist, dass er sowohl die Fahrzeugführung nach Aufforderung durch das automatisierte System im Kraftfahrzeug wieder übernehmen als auch auf erkennbare technische Störungen angemessen reagieren" kann.

SPD-Fraktionsvize Sören Bartol tritt vorsichtshalber auf die Gesetzes-Bremse. "Ich rate dazu, Schnellschüsse in der Diskussion über rechtliche Änderungen zu vermeiden. Es sind noch viele Fragen offen", sagt er unserer Redaktion. Und er macht dabei sogleich den Widerspruch einer Technik im Pionierstatus deutlich, indem er zwei Forderungen markiert. Einerseits könne ein Autofahrer nicht für Fehler der Technik haften, wenn die ein Fahrzeug kontrolliert. "Wenn der Fahrer die Hände vom Lenkrad nimmt und die Technik übernimmt, muss klar geregelt sein, für was der Autofahrer verantwortlich ist", unterstreicht Bartol. Angesichts der derzeit noch beschränkten Fähigkeiten der Technik müsse der Fahrer aber "immer in der Lage sein, in kritischen Situationen rechtzeitig die Steuerung des Autos wieder zu übernehmen".

Damit ist die große Bandbreite der aktuellen technischen Fähigkeiten angesprochen. Der gute alte Tempomat, der sich nur um die Geschwindigkeit und sonst nichts kümmert, hat mit automatisiertem Fahren nicht viel zu tun. Die Einparkfunktion schon mehr, und die nach Abstand und Geschwindigkeit selbst regelnde Stop-and-Go-Technik noch mehr. Aber: Das alles sind noch Assistenzsysteme, keine Autopiloten.

"Sicher und stressfrei"

Die hat der US-Autobauer Tesla seit vergangenem Herbst in sein Model S eingebaut, um - so die Werbebotschaft - die "Autobahnfahrten nicht nur sicherer, sondern auch stressfreier zu gestalten". Das Unternehmen sicherte sich ab mit dem Hinweis, dass der Autofahrer immer aufmerksam sein und wenn nötig zum Eingreifen bereit sein müsse. Doch erste Unfälle zeigen, dass die Autofahrer die Fähigkeiten des Systems überschätzen. So landete ein Auto beim nächtlichen Befahren einer Bergstraße in einem Graben. Dass der Fahrer zuvor mindestens zwei Minuten seine Hände nicht am Lenkrad gehabt habe, sei ein Verstoß gegen die Nutzungsbedingungen gewesen, erläuterte das Unternehmen.

Tesla war zuvor schon wegen eines tödlichen Verkehrsunfalles mit eingeschaltetem Autopiloten in die Schlagzeilen geraten. Anfang Mai war der Wagen unter einen Lastwagen-Anhänger gerast. Offenbar hatte das System das Hindernis für ein tiefhängendes Verkehrsschild gehalten.

Die Unfälle vermitteln nach Einschätzung von Verkehrsexperten ein schräges Bild. Tatsächlich verspreche die verstärkte Nutzung automatisierter Fahrzeuge ein Mehr an Sicherheit. 90 Prozent der Unfälle mit Personenschaden seien auf menschliches Fehlverhalten zurückzuführen, weniger als ein Prozent auf technische Fehler, heißt es auch in den Erläuterungen zum Gesetzentwurf.

Ministerium und Autoindustrie halten Eile für geboten. In vielen Ländern steckten konkurrierende Systeme in der Alltagserprobung. Für die Lösung der Haftungsfragen sei eine Blackbox dringend erforderlich, für die sich die Autobauer natürlich einen international einheitlichen Standard wünschen. Ungern will sich Dobrindt dabei von fortgeschrittenen Systemen anderer Nationen vor vollendete Tatsachen stellen lassen. Deshalb soll Deutschland in Sachen Rechtssicherheit ganz vorne stehen und eindeutig regeln, wie der Nachweis zu führen ist, zu welchem Zeitpunkt jeweils Mensch oder Maschine am Steuer sind.

Algorithmen greifen ins Leben ein

Doch die Sache wird noch komplizierter, weil es auch um schwierige ethische Fragen geht. Wie soll der Autopilot für Situationen programmiert werden, in denen Bremsen plötzlich nicht mehr hilft, sondern nur noch abruptes Ausweichen? Und dann links ein einzelner Mensch überfahren würde und rechts eine ganze Gruppe? Oder links ein alter Mensch und links ein junger? Dürfen also Algorithmen in das Grundrecht auf Leben eingreifen, das eigentlich für alle gleich sein muss, in der Programmierung dann aber unterschieden wird?

Viele derartiger Konfliktsituationen lassen sich durchspielen. Soll ein Programm etwa entscheiden, ob das Wild überfahren wird oder wegen einer Vollbremsung der zu dicht auffahrende Wagen ins Heck kracht? Autopiloten sind also juristisches Neuland, und für unbekanntes Terrain empfiehlt die Erfahrung, auf Sicht und vorsichtig zu fahren. Jedenfalls so lange Algorithmen noch nicht die besseren Gesetze schreiben.

(may-)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort