La morale de la future
Voici quelques règles morales :
1. Tu croiras
à tous les enseignements de l'Église et tu observeras ses commandements.
2. Tu protègeras l'Église.
3. Tu défendras tous les faibles.
4. Tu aimeras le pays où tu es né.
5. Tu ne fuiras jamais devant l'ennemi.
6. Tu combattras les infidèles avec acharnement.
7. Tu rempliras tes devoirs féodaux, à condition
qu'ils ne soient pas contraires à la loi divine.
8. Tu ne mentiras jamais et tu seras fidèle à ta
parole.
9. Tu seras libéral et généreux.
10. Tu seras toujours le champion du droit et du bien
contre l'injustice et le mal.
Ses règles de comportement étaient prononcées à voix haute
par le chevalier lors de son adoubement. Il y a fort long temps, la chevalerie
avait son époque d’or dans le 13eme siècle. Aujourd’hui ils sont démodés.
Si on avancerait un peu dans le temps.
Peut-on blâmé Calvin pour avoir approuvé la sentence de la
mort d’un scientifique, Michel Servet, découvreur de la petite circulation
sanguine ? Ou, peut-on réprimander Luther pour ses
textes scandaleusement antisémites ?
Je n’en pense pas car la morale est en
constante évolution et la source est la capitale d’expériences humaines. Luther
et Calvin étaient ignorants de ce que nous savons actuellement. Néanmoins, en considérant
l’époque leurs nouveaux codes moraux représentaient un avancement qui un peu
plus tard a été suivi par l’église catholique.
Un fait triste est que certains groupes
religieux essayent de priver leurs adhérents de la capitale d’expériences
humaines. Ces personnes ne peuvent pas développer un bon moral dans le sens
moderne.
Dans notre époque l’auteur Isaac Asimov a, en 1942, stipulé 3 règles morals pour robots.
1. Un robot ne peut blesser un être humain ou, en restant passif, exposer un être humain aux dangers.
2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si tels ordres sont en contradiction avec la première loi.
3. Un robot doit protéger son existence dans la mesure où cette protection n’est pas en conflit avec la première ou la seconde loi.
1. Un robot ne peut blesser un être humain ou, en restant passif, exposer un être humain aux dangers.
2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si tels ordres sont en contradiction avec la première loi.
3. Un robot doit protéger son existence dans la mesure où cette protection n’est pas en conflit avec la première ou la seconde loi.
C’était dans le cadre science fictions mais maintenant il
est temps d’en réfléchir car les robots deviennent lentement plus humains.
Voici le test de Turing :
Une personne est assise devant un ordinateur dans un endroit isolé et
pose des questions via le réseau où à l’autre bout sont
soit des personne soit des ordinateurs qui écrivent les réponses. Si la personne testée ne peut pas discriminer
entre ces deux moyennes de réponses, l’ordinateur a passé le test.
Comment réagisse un ordinateur en cas d’une insulte ?
Ils seront bientôt capables à donner une réponse humaine !
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.