Non, non, non et re-non! Stop! Assez! Marre de ces grandes discussions philosophiques qui prétendent déterminer comment une voiture autonome se comportera quand elle sera confrontée au «choix» cornélien de décider s’il vaut mieux s’envoyer – et son conducteur avec – dans un mur, plutôt que d’éviter un enfant sur un passage piéton. Ca n’arrivera jamais!

Parce qu’une voiture est une machine. Et qu’une machine n’a pas de «conscience». Ca n’a pas d’empathie, ça n’a pas d’émotions, ça n’a pas de sentiments non plus! C’est une machine. Et une machine, à moins d’une panne, ça fonctionne comme on a prévu de la faire fonctionner. Point, barre.

Dans un intéressant article (https://lnkd.in/fzH_vwk) Jason Miller s’est demandé, justement, si une machine pouvait avoir de l’empathie. Les réponses à cette question se divisaient, dit-il, en trois catégories. Les gens de la première semblent convaincus que, oui, une machine peut – ou pourra – avoir de l’empathie. L’argumentaire? L’intelligence artificielle sera bientôt capable de faire tout ce qu’un cerveau humain est capable de faire. Et la machine pourra être programmée comme nous puisque nous sommes aussi des machines et que notre cerveau n’est, finalement, qu’un ordinateur très bien programmé. 

Pour les gens de la seconde catégorie, la réponse est non, parce que l’empathie est une caractéristique purement humaine et que jamais une machine ne pourra être capable de la ressentir. Car l’empathie demande d’être capable de ressentir les émotions d’une autre personne et que ce type de conscience ne peut être recréé artificiellement.

Ceux de la troisième catégorie, enfin, lui renvoient une réponse qui l’intrigue. Du genre: si une machine semble faire preuve d’empathie, est-il important de se demander si cette empathie est réelle, ou pas? En gros: cette machine ressent-elle des émotions ou est-elle simplement capable de «déduire» le comportement à adopter en décryptant les signaux qu’on lui envoie? Et, partant, si une machine est capable de reproduire le comportement et les mimiques liées à ce que l’on considère comme étant de l’empathie, peut-on encore la considérer comme une machine?

Fascinant.

Mais bien éloigné, en réalité, des «comportements» d’une automobile, fut-elle «autonome». Malgré quelques tentatives timides de concept-cars «exprimant» des «sentiments» via une face constituée d’un écran, on n’est pas près de voir une voiture sourire, exprimer de la colère, de la peur ou de la compassion. Que ce soit via le truchement d’un pied humain ou d’une impulsion électrique envoyée par un programme, une voiture n’accélère que si on appuie sur l’accélérateur, ne freine que si l’on actionne le frein et ne tourne que si on agit sur le volant.

On peut bien remplacer les yeux du pilote par des caméras, des radars ou des lidars, on peut bien substituer des actions électroniques à ses décisions en cas d’urgence, mais on ne sait pas – et on ne saura sans doute pas avant longtemps – remplacer son analyse de la situation par un algorithme, aussi sophistiqué soit-il.

On a assisté, sur des pistes d’essais de constructeurs japonais par exemple, a des démonstrations bluffantes. On a vu une voiture «remarquer» l’apparition d’un piéton, estimer – en une fraction de seconde – si la voie de gauche ou de droite était la plus appropriée pour, instantanément, engager un freinage d’urgence et une manoeuvre d’évitement. Ca fonctionne! Déjà! Mais ça n’a rien de «conscient». Les différents systèmes du véhicules communiquent entre eux, la caméra est reliée à un CPU (central processor unit) qui, lui même, interagit avec les freins et la direction. Mais ce «cerveau» ne fait qu’appliquer une routine apprise. Du genre «si la caméra détecte un piéton, 1) étudier l’environnement 2) freiner 3) éviter». Comme la caméra est très précise – voire, même, thermique – et que la puissance de calcul de l’ordinateur est grande, les actions se passent en quasi-simultané et le résultat est, au final, plus «rapide» que celui généré par un «simple» humain.

Mais il ne s’agit que du fruit d’une longue et complexe programmation. En aucun cas la machine n’a «pensé» à l’action à effectuer. Elle n’a pas «réfléchi», elle a appliqué une routine, vite et bien. Mais que se serait-il passé si un second piéton était apparu sur sa trajectoire d’équipement?  Elle aurait sans doute appliqué la même routine, initié un second processus d’évitement et, au pire, fini… dans la glissière. Parce qu’elle est prévue pour éviter l’accident ou, au pire, en minimiser les conséquences. Mais jamais, au grand jamais, elle n’aurait choisi d’écraser le premier en se disant que le second risquait de l’envoyer dans les décors.

En réalité, et pour rejoindre l’avis d’Antonio Damasio, un spécialiste des neurosciences cité dans l’article de Jason Miller: «Nous ne sommes pas des machines pensantes qui ont des émotions, nous sommes des machines émotionnelles qui pensons.» Et c’est ça qui fait toute la différence entre nous et la machine! Jamais une machine ne sera capable de s’en remettre à son «jugement», à son «libre-arbitre» pour décider de la décision à prendre et de l’attitude à adopter. Sinon les voitures autonomes ne serviront à rien: il y aura largement autant d’accidents que si on laissait conduire… les humains.

Tout le reste n’est que philosophie de comptoir, ou discours de marketing.