Waymo: Sicherheitsdebatte erreicht neuen Höhepunkt

Waymo verzeichnet drastisch weniger Unfälle, doch Vorfälle mit Schulbussen und grundlegende KI-Schwächen führen zu regulatorischen Problemen und schaden dem öffentlichen Vertrauen.

Die Diskussion um autonome Fahrzeuge spitzt sich zu: Beeindruckende Statistiken prallen auf beunruhigende Verhaltensfehler. Während Waymo seine Technologie mit Daten verteidigt, die einen massiven Rückgang der Unfallraten zeigen, wächst die Kritik an grundlegenden Schwächen der KI.

Schule, Busse und „verschwindende“ Objekte

Der Streit eskalierte am Freitag, als der Schulbezirk von Austin Waymo aufforderte, den Betrieb während der Schulzeiten einzustellen. Der Vorwurf: 24 Vorfälle in diesem Schuljahr, bei denen fahrerlose Autos Verkehrsregeln an Schulbussen missachtet haben sollen – etwa das Überholen bei eingeschaltetem Rotlicht.

Diese Vorfälle befeuern eine spezifische technische Kritik: den angeblichen „Objektpermanenz“-Fehler. Die menschliche Kognition versteht, dass ein Objekt weiter existiert, auch wenn es kurz nicht sichtbar ist. Kritiker behaupten, dass aktuelle autonome Systeme hiermit kämpfen. Wird ein Kind oder Fahrzeug kurz von einem anderen Objekt verdeckt, könnte die KI es als „verschwunden“ behandeln – mit gefährlichen Folgen.

Ein Vorfall aus San Francisco Ende 2025, bei dem ein Waymo-Fahrzeug eine Katze traf, wird nun als Beispiel angeführt. Analysten sehen darin ein Versagen der Software, ein mentales Modell eines Objekts beizubehalten, sobald es unter den Sensorhorizont gerät.

Anzeige

Passend zum Thema Regulierung und Haftung – die EU hat mit der KI-Verordnung klare Anforderungen an Kennzeichnung, Risikoklassifizierung und Dokumentation festgelegt. Wer KI-Systeme entwickelt, vertreibt oder einsetzt, muss diese Pflichten kennen, um Bußgelder und Marktzugangsprobleme zu vermeiden. Ein kostenloser Umsetzungsleitfaden erklärt verständlich, welche Pflichten jetzt gelten und wie Sie Ihr System rechtssicher einordnen und dokumentieren. Jetzt KI-Umsetzungsleitfaden herunterladen

Die Verteidigung: 90 Prozent sicherer als Menschen

Waymo kontert mit harten Fakten. Ein Sicherheitsbericht vom Ende 2025 zeigt: Die autonome Flotte hat die Schadensmeldungen für Personenschäden und Sachschäden im Vergleich zu menschlichen Fahrern in den Betriebsstädten um 88 bis 92 Prozent reduziert.

Befürworter argumentieren, die Fokussierung auf seltene, „fremdartige“ Fehler wie die Schulbus-Probleme verkenne die Gesamtrealität. Roboter fahren nicht betrunken, abgelenkt oder übermüdet – die Hauptursachen für tödliche Unfälle durch Menschen.

Beobachter sehen hier ein PR-Problem: Die Gesamtsicherheit ist höher, aber die Art der Fehler wirkt unmenschlich und beunruhigend. Ein Mensch verursacht vielleicht einen Unfall durch Unaufmerksamkeit, aber er „vergisst“ selten, dass ein haltender Schulbus Kinder impliziert.

Regulatorische Gegenwind und Expansionsprobleme

Die Spannung zwischen Statistik und Verhaltensfehlern schafft regulatorische Reibung. In San Diego lehnte das Verkehrsamt eine Expansion von Waymo ohne strengere lokale Aufsicht fast einstimmig ab. Die Sorge: Die Expansionspläne des Unternehmens überholen die Lösung dieser Sicherheits-„Randfälle“.

Gleichzeitig untersucht die US-Verkehrssicherheitsbehörde NHTSA die Schulbus-Vorfälle weiter. Waymo hatte im Dezember 2025 einen freiwilligen Software-Rückruf für genau diese Szenarien durchgeführt. Dass die Vorfälle in Austin im Januar anhielten, legt nahe, dass die Lösung nicht voll wirksam war.

Die Debatte schwappt über den Atlantik. Vor einer möglichen Markteinführung 2026 in London organisieren britische Gig-Worker und Sicherheitsaktivisten bereits Proteste – und verweisen warnend auf die Vorfälle in den USA.

Die Lücke im „logischen Denken“

Hinter den Schlagzeilen tobt eine grundsätzlichere Technologie-Debatte. Auf der CES 2026 betonten Wettbewerber und Chiphersteller einen Wandel: weg von „reflexbasierten“ KI-Systemen, die Bild für Bild reagieren, hin zu KI mit „logischem Denken“.

Der seit einem Jahrzehnt dominierende „Reflex“-Ansatz verlässt sich auf riesige Regelbibliotheken und vorkartierte Szenarien. Kritiker sagen, dieser Ansatz stößt bei „Long-Tail“-Ereignissen wie komplexen Baustellen oder unberechenbaren Schulbussen an Grenzen. Ein „denkendes“ System würde dagegen die Kausalität einer Szene verstehen: Dass ein Ball, der auf die Straße rollt, ein Kind implizieren könnte. Oder dass ein haltender Bus wahrscheinlich Fußgänger bedeutet – selbst wenn sie gerade nicht sichtbar sind.

Ausblick: Ein „Beweis“-Jahr steht an

Für die Branche wird 2026 ein entscheidendes Jahr. Waymos statistische Überlegenheit ist unbestreitbar, aber das öffentliche Vertrauen ist brüchig. Die Expansion in neue Märkte wie Austin, Atlanta und möglicherweise London wird wohl davon abhängen, diese kognitiven Lücken zu schließen.

Experten deuten an: Wenn das „Objektpermanenz“-Problem nicht sichtbar gelöst wird, könnten Regulierer beginnen, die Schwere und Seltsamkeit der Roboterfehler höher zu gewichten als die Netto-Reduktion der Unfallraten. Die Daten sagen, die Autos sind sicherer. Doch die viralen Videos von verwirrten Robotern zeigen: Sie müssen die menschliche Welt noch viel besser verstehen lernen.

Anzeige

PS: Die neue KI-Verordnung verlangt nicht nur technische Nachweise, sondern klare Dokumentation, Risikobewertung und Nachvollziehbarkeit von Entscheidungen — genau das, was Hersteller autonomer Fahrzeuge jetzt nachweisen müssen. Ein kostenloses E‑Book fasst die notwendigen Schritte zusammen: Risikoklassifizierung, Kennzeichnungs‑Pflichten und sinnvolle Nachweisdokumente, die Regulatoren überzeugen können. Kostenlosen AI‑Act‑Guide sichern