Pages

vendredi 20 mars 2015

Il est temps d’enseigner les machines éthique





  1.  Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi.
 Ces sont les 3 lois de la robotique formulés par l'écrivain de science-fiction Isaac Asimov en 1942. À cette époque ces propos étaient encore considéré comme très imaginaires et un fait amusant. Peu de monde s’intéressait au fond du sujet. Il a fallu attendre jusqu’au 2002 avant que le mot anglais Roboethics, en français Roboéthique, n’apparaisse.

C’est le rapide développement de l’électronique et l’informatique qui nous avons mis dans une situation où il est impensable de ne plus considérer les engins électronique qui nous entoure comme des appareilles seulement « mécanique ». Un GPS a par exemple un genre de conscience parce qu’il sait où il est et s’il nous donne des informations fausses il peut endommager nos vies. Pour les voitures autonomes, qui bientôt vont apparaitre, le problème éthique est encore plus accentué. 

L’entreprise de conseille Gartner a bien compris le problématique et dans un article en Newsroom elle propose 5 niveaux de considérations éthiques pour machines.

Niveau 0: Programmation non-éthique
De la technologie qui ne nécessite aucune programmation éthique. Il inclut par exemple des versions d'essai de logiciels. Cependant, il faut une transparence claire sur ce que la technologie peut, ou ne peut pas, faire.

Niveau 1: surveillance éthique
De fournir des recommandations pour les utilisateurs de machines intelligentes. Mais, c’est encore aux utilisateurs de prendre la responsabilité de tout usage.

Niveau 2: Programmation éthique
Ce niveau commence lorsque non seulement les professionnels mais aussi les consommateurs utilisent la technologie. Gartner donne l'exemple d'un assistant numérique dans un mobile qui est interrogé sur le pont le plus proche où il est possible de sauter. L'assistant intelligent devrait alors être programmé pour capturer que la demande signale un risque de suicide et contacter un structure qui peut apporter aide et soutien.

Niveau 3: Programmation éthique évolutionniste
Il s’applique pour machines qui évoluent en auto-apprenant qui fait qu’elles successivement s’éloignent de leurs états originaux.

D’avoir confidence à de telles machines est nécessaire pour les usagers. Gartner prédit que beaucoup de nouveaux règlements et lois seront nécessaire pour ce niveau. Un exemple mentionné est la question si ces machines auront le droit d’utiliser une carte de crédit d'un employé, ou même peut-être avoir ces propres cartes.

Niveau 4: éthique développé par des machines elles-mêmes
C’est une perspective à long terme. Gartner ne croit pas que les entreprises actuellement ont besoin de planifier pour ce niveau. Mais, tôt ou tard les machines deviendront conscientes d’eux-mêmes et auront besoin d'être enseignés sur des questions éthiques.

Voici quelques questions sur ce niveau : Comment pouvons-nous assurer que ces machines prennent de la responsabilité ? Traiterons-nous ces machines intelligentes comme des animaux de compagnie dont les propriétaires toujours ont la responsabilité pour leurs actes ? Ou, allons-nous les traiter comme des enfants et les élever jusqu'à ce qu'ils soient capables de gérer leurs propres indépendances ?

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.