Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Nachrichten IT/Computer Viele Software-Fehler in autonomen Autos

Viele Software-Fehler in autonomen Autos

Archivmeldung vom 02.04.2019

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 02.04.2019 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Von Software als Fußgänger identifizierter Radler.
Von Software als Fußgänger identifizierter Radler.

Bild: viterbischool.usc.edu

Forscher der an der University of Southern California angesiedelten Viterbi-Ingenieursschule haben mit Kollegen der Arizona State University eine Möglichkeit verborgene Fehler in der Software autonom fahrender Autos gefunden. Das Problem vieler Programme ist bislang die sichere Identifizierung dessen, was die Kameras aufnehmen. Sie müssen zwischen Fußgängern, Kinderwagen, Radlern, Autos und allen anderen Verkehrsteilnehmern unterscheiden können, um richtig zu reagieren.

Software lernt noch dazu

Die in autonom fahrenden Autos eingesetzte Software lernt selbstständig. Sie macht Erfahrungen, die sie im nächsten, ähnlichen oder gleichen Fall nutzt. Derartige Programme lassen sich schlecht testen, weil niemand ganz genau weiß, aufgrund welcher Umstände sie Entscheidungen treffen. Das kann verheerende Folgen haben, wenn das Fahrzeug auf die Straße kommt.

"Erkennungs-Software zuverlässig zu machen, ist die größte Herausforderung", sagt Viterbi-Doktorand Anand Balakrishnan. "Mit unserer Testmethode können Software-Entwickler Fehler schnell erkennen und dieses Wissen nutzen, um sie weiter zu trainieren. Es müsse vor der Zulassung eines fahrerlosen Autos auch für die eingesetzte Software eine Art Crashtest geben, so Balakrishnan.

Radler und Fußgänger verwechselt

Erkennungs-Software wird in den meisten Fällen mit gewaltigen Datenmengen gefüttert. Daran lernen die Algorithmen, die unterschiedlichen Verkehrsteilnehmer zu identifizieren. Das klappt nicht immer. Vor einem Jahr klassifizierte eine Software einen Fußgänger als nicht existent und entschied sich gegen einen Stopp. Der Fußgänger wich noch rechtzeitig aus.

Die US-Forscher haben ihre Prüf-Software an zwei maschinell lernenden Programmen getestet. Dabei stellten sie fest, dass das System einen Radfahrer von hinten nicht als solchen erkannte, weil er einem Fußgänger glich. Umgekehrt "sieht" das System oft Phantome, also Objekte, die es gar nicht gibt. Das verhindert eine zügige Fahrt oder beendet sie gar.

Quelle: www.pressetext.com/Wolfgang Kempkens

Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte lieben in folgendes Feld um den Spam-Filter zu umgehen

Anzeige