News

Il fallait bien que cela arrive. Depuis plusieurs années, constructeurs et entreprises privées bataillent ferme dans le domaine de la conduite autonome, depuis que Tesla avait ouvert les hostilités il y a quelques années. Tesla avait d’ailleurs eu affaire à un accident mortel d’un conducteur en 2016, décédé en percutant un camion non détecté par le système. 

Tesla n’avait pas été reconnu responsable, le système d’alors n’étant qu’un assistant de conduite autonome non adapté à la route utilisée dans ce cas alors même que le conducteur avait été jugé « trop dépendant » de ce système pour lequel il convient de rester vigilant.

Cette fois le cas est tout autre puisque c’est un piéton qui a été percuté par une voiture test du géant Uber. La Volvo, qui avait un passager à l’avant, n’a pas vu le piéton poussant un vélo qui a, tout de même, décidé de traverser une 4 voie en dehors des clous. Il semblerait que le l’IA du système ait du mal à reconnaître les vélos… La pauvre dame en a fait les frais et est décédée également des suites de la collision frontale. La voiture ne semblerait pas être en tort, selon la police locale en Arizona, au regard des vidéos prises par le véhicule. 

Cet accident mortel met un terme aux essais d’Uber sur le continent américain et au Canada, selon les responsables de l’entreprise. Un coup dur au moment où Uber, toujours déficitaire, pensait pouvoir proposer des services en supprimant les chauffeurs dont les charges pèsent dans la balance (oui, c’est vrai, des robots prendront des places à des humains, c’est une évidence). Ceci aussi au moment où des entreprises, comme Uber, faisaient pression sur le Congrès américain pour permettre le déploiement des voitures sans chauffeur. Les sénateurs n’ont pas tardé à réagir en indiquant qu’il était donc prudent d’attendre. 

Première chose, l’accident n’aurait sans doute pas été évité avec un humain au volant. De surcroit, les lois de la physique étant ce qu’elles sont, certains accidents resteront inévitables. Mais ce point rappelle aussi combien la question de la responsabilité doit être cadrée. Dans cet accident, Volvo a tout de suite expliqué que s’il fournissait les véhicules, il ne fournissait pas la technologie, ce qui le dédouane d’entrée de jeu. Je n’ose imaginer les batailles juridiques d’assurances à venir si rien n’est prévu d’avance. Deuxième chose, se pose aussi la question toujours des choix à réaliser par système qui ne font pas encore l’objet de règles. Le véhicule va-t-il protéger le conducteur ou le piéton, et ainsi de suite. Là encore, il reste du travail d’encadrement avant de lâcher ces véhicules sur les routes. 

Enfin, et pour conclure, les IA des systèmes de conduite autonome ne sont pas encore au point. Se déplacer dans un environnement connu est faisable (les lignes de tram par exemple) mais lorsque celui-ci change en permanence, l’apprentissage n’est pas encore parfait, loin s’en faut. Toyota avait annoncé devoir tester les systèmes autonomes sur environ 1,6 milliards de kilomètres avant d’acter leur fiabilité. Si les systèmes vont progresser (il existe 5 niveaux), l’autonomie totale n’est pas pour demain ! 

Il n’est pas trop tard…Mais presque ! 

« L’homme a la possibilité non seulement de penser, mais encore de savoir qu’il pense ! C’est ce qui le distinguera toujours du robot le plus perfectionné ».

Jean Delumeau


0 commentaires:

Enregistrer un commentaire

 
Top