La déclaration universelle du droit des robots
Par Jean-Luc Goudet - Futura-Sciences, le 16/03/2007 à 09h13
Elle est en cours de rédaction en Corée du Sud, au sein même du gouvernement. Cette Charte éthique des robots devrait être adaptée cette année. Il s’agit d’éviter que les robots soit maltraités et, l’inverse, qu’ils fassent du tort aux humains. Le principe s’inspire… de l’écrivain Asimov.
Rapportée par l’AFP, la nouvelle peut faire penser à une plaisanterie mais il n’en est rien. Le ministère du commerce, de l’énergie et de l’industrie de la Corée du Sud planche sur une « Charte éthique des robots », rédigée par un groupe d’experts, comprenant notamment des futurologues et un écrivain de science-fiction. Le projet est avancé puisque, selon le ministre en personne, la charte devrait être publiée cette année.
L’idée est moins de protéger les robots contre d’hypothétiques maltraitances que de définir les rapports entre eux et les humains, de sorte qu’ils ne puissent nuire aux hommes. Le but, selon le communiqué du ministère, « est d'élaborer des lignes de conduite éthiques sur les rôles et fonctions des robots, car les robots vont développer une vive intelligence dans un avenir proche". Selon madame Park Hye-Young, membre du bureau de la robotique du ministère, dans les pays où la population vieillit, ce qui est le cas de la Corée du Sud, des « robots pensants deviendront des compagnons-clé de l'homme ». D’après le ministère de l’information et de la communication, chaque foyer sud-coréen devrait posséder son robot entre 2015 et 2020. Il s’agit aussi, précise Park Hye-Young « d’éviter leur utilisation clandestine, protéger les données acquises par les robots et établir leur identification et leur traçabilité ».
De la fiction à la réalité
Si cette idée évoque les fameuses lois d’Isaac Asimov, apparues dans les ouvrages du célèbre écrivain de science-fiction américain dès les années 1940, ce n’est pas un hasard puisque les rédacteurs de cette charte disent s’en inspirer. Au fil de ses récits, Asimov avait énoncé trois lois :
- les robots ne doivent pas s'en prendre à des humains ou permettre à des humains de faire du mal,
- les robots doivent obéir aux humains à moins que cela entre en conflit avec la première loi,
- les robots doivent agir pour se protéger, sauf si cela rentre en contradiction avec la première ou la deuxième loi.
Elles seront semble-t-il reprises dans la charte mais le texte devrait aussi s’inspirer des travaux du Réseau de recherche européen sur la robotique (European robotics research network, alias Euron). Les idées de ce réseau seront rendues publiques le 10 avril 2007, à Rome, au cours du forum Innovation and Entrepreneurship in Robotics and Automation.
Aucun commentaire:
Publier un commentaire