Une guerre nucléaire est actuellement la menace la plus
aiguë pour l'humanité. D'autres, au moins aussi puissants, existent, par
exemple des bio-armes avancés et des ordinateurs qui deviendront trop
intelligents pour notre propre bien-être. Comment survivre confrontés avec ces
menaces ? C’était la problématique abordé dans la conférence Existential
risk to humanity.
À faire de la recherche sur la fin des jours peut
sembler un peu étrange. Mais, aujourd'hui c'est un domaine très sérieuse en
pleine expansion. Surtout, il s'agit d'analyser les risques.
Le programme, une initiative temporaire, réunissait en septembre et octobre des philosophes et des physiciens de plusieurs pays, avec le bût de conjointement trouver une approche holistique aux défis majeurs.
Aucune des participants n’était évidemment pas en mesure de répondre la grande question : Quand sera tout fini ? Mais, ils sont maintenant convaincus qu’il faut faire le mieux pour réduire le risque que ce jour n’arrive jamais.
Il y a eu 12 présentations sur divers problèmes. Les
participants ont pu les comparer et puis réfléchir sur les mesures possibles pour
minimiser les risques.
Une difficulté dans ce domaine est d'évaluer la probabilité que quelque chose qui n'est jamais arrivé se produise dans l'avenir. En outre, il existe des différences entre ce que nous pouvons, et devons, faire en termes de menaces naturelles et d’autres types de risques que nous avons créés nous-mêmes.
Si nous voulons que l'humanité continue à prospérer nous devons donc faire face à toutes sortes de menaces Cependant, pour le siècle à venir nous pouvons probablement ignorer les supernovas et autres menaces cosmiques et plutôt nous concentrer sur les risques que nous avons créés nous-mêmes.
Une conclusion a été qu’une guerre nucléaire est la plus grande menace. En suit suivent la biologie synthétique, qui crée les conditions nécessaires pour la conception de puissantes armes biologiques, la nanotechnologie et l'intelligence artificielle. Le risque du dernier est que les ordinateurs, agissant de plus en plus seuls, peuvent déclencher des réactions en chaîne au-delà control humain.
Une difficulté dans ce domaine est d'évaluer la probabilité que quelque chose qui n'est jamais arrivé se produise dans l'avenir. En outre, il existe des différences entre ce que nous pouvons, et devons, faire en termes de menaces naturelles et d’autres types de risques que nous avons créés nous-mêmes.
Si nous voulons que l'humanité continue à prospérer nous devons donc faire face à toutes sortes de menaces Cependant, pour le siècle à venir nous pouvons probablement ignorer les supernovas et autres menaces cosmiques et plutôt nous concentrer sur les risques que nous avons créés nous-mêmes.
Une conclusion a été qu’une guerre nucléaire est la plus grande menace. En suit suivent la biologie synthétique, qui crée les conditions nécessaires pour la conception de puissantes armes biologiques, la nanotechnologie et l'intelligence artificielle. Le risque du dernier est que les ordinateurs, agissant de plus en plus seuls, peuvent déclencher des réactions en chaîne au-delà control humain.
Une autre révélation a été nous avons pensé que la
destruction de la race humaine serait le résultat d'événements naturels, accidents
ou erreurs. Pourtant, des études montrent maintenant qu'il existe des gens qui ont
pour but de nous détruire. Le X-Risk Institute
a par exemple étudié les tueries dans des écoles américain et constaté qu’un
bon nombre des auteurs aurait mises fin à toute l'humanité si seulement ils en
avaient eu l'occasion. Ce qui les a empêchés est qu'ils n'ont pas encore eu les
moyens.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.