Künstliche Intelligenz soll das Autofahren sicherer machen – etwa durch automatische Notbremsung, Spurhaltung oder Objekterkennung. Doch wo Technik Entscheidungen trifft, entstehen neue Risiken. Darauf weist der Dera -Verkehrssicherheitsreport 2025 hin. "Mit der Integration von KI wächst auch das Risiko ihres Versagens", sagt Xavier Valero, Director Artificial Intelligence & Advanced Analytics bei Dekra. Der Report fordert klare Vorschriften, strenge Prüfverfahren und transparente Abläufe im Umgang mit lernenden Systemen.
EU stuft Fahrerassistenz als Hochrisiko ein
Advanced Driver Assistance Systems (ADAS), die auf KI basieren, übernehmen zunehmend sicherheitsrelevante Aufgaben. Die Europäische Union hat sie deshalb im 2024 verabschiedeten KI-Gesetz als Hochrisiko-Systeme eingestuft. Das bedeutet: Ihre Entwicklung und Nutzung unterliegen besonderen Aufsichts- und Validierungspflichten. Gleichzeitig erlaubt das Gesetz Ausnahmen, wenn Systeme bereits im Rahmen der Fahrzeugtypgenehmigung geprüft wurden.
Verlässliche Verfahren für den gesamten Lebenszyklus
Laut Dekra müssen Hersteller sicherstellen, dass KI-Systeme über den gesamten Lebenszyklus hinweg nachvollziehbar und überprüfbar bleiben. Dazu gehören klare Richtlinien, Qualitätsmanagement und regelmäßige Validierungen. Die Norm ISO/PAS 8800 ergänzt bestehende Sicherheitsstandards wie ISO 26262 (funktionale Sicherheit) und ISO 21448 (SOTIF). Sie beschreibt Anforderungen an Entwurf, Datenqualität, Validierung und laufende Überwachung von KI-Anwendungen im Fahrzeug.
DEKRA sieht sich als Partner der Industrie
Als unabhängige Prüforganisation beteiligt sich Dekra an der regulatorischen Diskussion und bietet Training, Bewertung und Zertifizierung nach ISO 8800 an. Ziel ist, die Hersteller dabei zu unterstützen, Sicherheit und Transparenz ihrer Systeme zu erhöhen. "Nur so lässt sich das Vertrauen der Nutzer in automatisierte Fahrfunktionen sichern", so Valero.
Ethische Fragen bleiben ungelöst
Neben der technischen Zuverlässigkeit rücken auch moralische Fragen in den Fokus. "Je höher der Automatisierungsgrad, desto mehr verlagert sich das Risiko vom Fahrer zum Entwickler", erklärt Dekra-Verkehrspsychologe Dr. Thomas Wagner. Wer KI-Algorithmen programmiert, muss Entscheidungen über das Verhalten eines Fahrzeugs in Unfallsituationen treffen – etwa darüber, welche Beteiligten im Ernstfall stärker gefährdet werden.
Gesellschaftliche Akzeptanz entscheidet
Wie komplex diese Fragen sind, zeigt das internationale "Moral Machine"-Experiment: Millionen Teilnehmende mussten zwischen zwei unvermeidbaren Unfallszenarien wählen. Die Ergebnisse offenbarten große kulturelle Unterschiede bei ethischen Präferenzen – etwa zwischen westlichen und asiatischen Ländern. Dekra fordert deshalb eine breite gesellschaftliche Debatte und internationale Leitlinien, damit automatisiertes Fahren gesellschaftlich akzeptiert bleibt.
Fazit: Sicherheit durch klare Verantwortung
Der Report verdeutlicht: Künstliche Intelligenz kann die Verkehrssicherheit erhöhen, wenn sie verantwortungsvoll eingesetzt wird. Technische Zuverlässigkeit, Datensicherheit und ethische Verantwortung müssen dabei Hand in Hand gehen. Ohne transparente Regeln und konsequente Überwachung droht der technologische Fortschritt zum Risiko zu werden.







