Pages

mercredi 30 janvier 2013

La morale de la future


Voici quelques règles morales :

1.  Tu croiras à tous les enseignements de l'Église et tu observeras ses commandements.

2. Tu protègeras l'Église.

3. Tu défendras tous les faibles.

4. Tu aimeras le pays où tu es né.

5. Tu ne fuiras jamais devant l'ennemi.

6. Tu combattras les infidèles avec acharnement.

7. Tu rempliras tes devoirs féodaux, à condition qu'ils ne soient pas contraires à la loi divine.

8. Tu ne mentiras jamais et tu seras fidèle à ta parole.

9. Tu seras libéral et généreux.

10. Tu seras toujours le champion du droit et du bien contre l'injustice et le mal.

Ses règles de comportement étaient prononcées à voix haute par le chevalier lors de son adoubement. Il y a fort long temps, la chevalerie avait son époque d’or dans le 13eme siècle. Aujourd’hui ils sont démodés.

Si on avancerait un peu dans le temps. Peut-on blâmé Calvin pour avoir approuvé la sentence de la mort d’un scientifique, Michel Servet, découvreur de la petite circulation sanguine ? Ou, peut-on réprimander Luther pour ses textes scandaleusement antisémites ?     

Je n’en pense pas car la morale est en constante évolution et la source est la capitale d’expériences humaines. Luther et Calvin étaient ignorants de ce que nous savons actuellement. Néanmoins, en considérant l’époque leurs nouveaux codes moraux représentaient un avancement qui un peu plus tard a été suivi par l’église catholique.  

Un fait triste est que certains groupes religieux essayent de priver leurs adhérents de la capitale d’expériences humaines. Ces personnes ne peuvent pas développer un bon moral dans le sens moderne.

Dans notre époque l’auteur Isaac Asimov a, en 1942, stipulé 3 règles morals pour robots.

1. Un robot ne peut blesser un être humain ou, en restant passif, exposer un être humain aux dangers.

2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si tels ordres sont en contradiction avec la première loi.

3. Un robot doit protéger son existence dans la mesure où cette protection n’est pas en conflit avec la première ou la seconde loi.

C’était dans le cadre science fictions mais maintenant il est temps d’en réfléchir car les robots deviennent lentement plus humains. Voici le test de Turing :

Une personne est assise devant un ordinateur dans un endroit isolé et pose des questions via le réseau où à l’autre bout sont soit des personne soit des ordinateurs qui écrivent les réponses. Si la personne testée ne peut pas discriminer entre ces deux moyennes de réponses, l’ordinateur a passé le test.

Comment réagisse un ordinateur en cas d’une insulte ? Ils seront bientôt capables à donner une réponse humaine !

Sont les robots pénalement responsables ? La question est naturellement absurde. Mais, il faut que les concepteurs de futures automates, qui seront capable d’apprendre par leurs erreurs, réfléchissent comment les trois critères d’Asimov concrètement soient impliqués.

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.