Quelle morale pour les robots ?
5 (2)

voiture autonome

Le développement de plus en plus rapide de l’intelligence artificielle pose aussi des questions d’ordre philosophique et moral et c’est logique. Dès lors que les robots deviennent de plus en plus intelligents, ils sont aussi de plus en plus autonomes. Et donc aussi parfois confrontés à des choix moraux.

Des choix moraux à cause de l’intelligence artificielle

Un exemple parmi les plus actuels : le développement des véhicules sans chauffeur, ceux que préparent Google, Tesla, Apple ou Toyota. On le sait, grâce à des technologies et des logiciels très poussés, tout est fait pour que ces véhicules autonomes ne provoquent pas d’accident. C’est quand même déjà arrivé, sans gravité il est vrai.

Des accidents de la route causés par des machines

Mais les accidents peuvent aussi par les autres usagers de la route. Et que se passe-t-il à ce moment-là ? Si un jeune enfant surgit de nulle part, un conducteur humain fera sans doute tout pour l’éviter, même au risque de crasher son véhicule et de se blesser. En une fraction de seconde, il a géré un dilemme moral. Mais comment un véhicule autonome réagira-t-il dans ce genre de situation ? Ou lorsque pour éviter de faucher une personne âgée, il faudra mettre en péril la santé d’une passagère enceinte ?

L’autonomie : oui, mais quid de la sécurité ?

Il va donc falloir programmer le véhicule en conséquence. Encore faut-il savoir comment ? Le magazine Science a publié cette semaine une étude franco-américaine qui indique par exemple que 75% américains interrogés pensent que  les voitures autonomes devront préserver un groupe de piétons quitte à mettre en danger les passagers. Mais s’il y a des enfants à bord du véhicule, ils ne sont plus que 50% à vouloir éviter les piétons à tout prix.

Tout ça paraît extrêmement complexe, et un peu dérangeant parce que ça nous renvoie à la définition de normes qui peuvent être différentes d’un individu à l’autre, et dont l’application varie aussi. Au point de contribuer à la méfiance que ce type de véhicule inspire au public, c’est un des enseignements de l’étude.

Pour approfondir le sujet, les chercheurs français du CNRS et américains du MIT, le Massachusetts Institute of Technology, ont créé une plateforme où le public choisir l’attitude à prendre dans toute une série de situations qui impliquent de tels choix. 

Titre de l’exercice : the moral machine, la machine morale. Une manière très efficace de sensibiliser  à ce qui apparaît comme un défi majeur : il n’y aura pas d’intelligence artificielle sans références morales. Il n’est pas trop tôt pour y penser. 

Notez cet article.