The self-driving car, that cutting-edge creation that’s supposed to lead to a world without accidents, is achieving the exact opposite right now: The vehicles have racked up a crash rate double that of those with human drivers.
The glitch?
They obey the law all the time, as in, without exception. This may sound like the right way to program a robot to drive a car, but good luck trying to merge onto a chaotic, jam-packed highway with traffic flying along well above the speed limit. It tends not to work out well. As the accidents have piled up — all minor scrape-ups for now — the arguments among programmers at places like Google Inc. and Carnegie Mellon University are heating up: Should they teach the cars how to commit infractions from time to time to stay out of trouble?
Les relations presse avancent facilement le « zéro accident responsable » des voitures autonomes, mais ça n’est qu’une partie des enjeux. Voilà l’autre, et c’est diablement intéressant.
On ne parle d’ailleurs pas que d’accident, mais simplement de bonne conduite. Comme pour les motos et l’interfile, il y a la règle pure et dure, et ce que doit laisser faire l’intelligence :
Faut-il rester derrière un vélo à 25 km/h pendant 5 km faute de pouvoir le doubler avec 1m50 d’espace sans passer la ligne jaune et au risque non seulement un bouchon mais peut-être encore plus d’accident quand le conducteur suivant voudra doubler les deux d’un coup sans visibilité ? ou peut-on doubler avec un peu moins d’espace et en mordant la ligne médiane avec toutes les précautions utiles ?
Bonne chance les robots…
Laisser un commentaire