Humans Are Slam­ming Into Driver­less Cars and Expo­sing a Key Flaw


The self-driving car, that cutting-edge crea­tion that’s suppo­sed to lead to a world without acci­dents, is achie­ving the exact oppo­site right now: The vehicles have racked up a crash rate double that of those with human drivers.

The glitch?

They obey the law all the time, as in, without excep­tion. This may sound like the right way to program a robot to drive a car, but good luck trying to merge onto a chao­tic, jam-packed high­way with traf­fic flying along well above the speed limit. It tends not to work out well. As the acci­dents have piled up — all minor scrape-ups for now — the argu­ments among program­mers at places like Google Inc. and Carne­gie Mellon Univer­sity are heating up: Should they teach the cars how to commit infrac­tions from time to time to stay out of trouble?

— Bloom­berg

Les rela­tions presse avancent faci­le­ment le « zéro acci­dent respon­sable » des voitures auto­nomes, mais ça n’est qu’une partie des enjeux. Voilà l’autre, et c’est diable­ment inté­res­sant.

On ne parle d’ailleurs pas que d’ac­ci­dent, mais simple­ment de bonne conduite. Comme pour les motos et l’in­ter­file, il y a la règle pure et dure, et ce que doit lais­ser faire l’in­tel­li­gence :

Faut-il rester derrière un vélo à 25 km/h pendant 5 km faute de pouvoir le doubler avec 1m50 d’es­pace sans passer la ligne jaune et au risque non seule­ment un bouchon mais peut-être encore plus d’ac­ci­dent quand le conduc­teur suivant voudra doubler les deux d’un coup sans visi­bi­lité ? ou peut-on doubler avec un peu moins d’es­pace et en mordant la ligne médiane avec toutes les précau­tions utiles ?

Bonne chance les robots…


Une réponse à “Humans Are Slam­ming Into Driver­less Cars and Expo­sing a Key Flaw”

  1. Ou alors, on pourrait faire en sorte que les humains respectent le code de la route au lieu de se croire tout le temps supérieurs aux autres et au dessus des règles…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.