Pages

vendredi 1 décembre 2017

Est-ce que les chercheurs peuvent nous sauver de la fin du monde ?



Une guerre nucléaire est actuellement la menace la plus aiguë pour l'humanité. D'autres, au moins aussi puissants, existent, par exemple des bio-armes avancés et des ordinateurs qui deviendront trop intelligents pour notre propre bien-être. Comment survivre confrontés avec ces menaces ? C’était la problématique abordé dans la conférence Existential risk to humanity.

À faire de la recherche sur la fin des jours peut sembler un peu étrange. Mais, aujourd'hui c'est un domaine très sérieuse en pleine expansion. Surtout, il s'agit d'analyser les risques.

Le programme, une initiative temporaire, réunissait en septembre et octobre des philosophes et des physiciens de plusieurs pays, avec le bût de conjointement trouver une approche holistique aux défis majeurs.

Aucune des participants n’était évidemment pas en mesure de répondre la grande question : Quand sera tout fini ? Mais, ils sont maintenant convaincus qu’il faut faire le mieux pour réduire le risque que ce jour n’arrive jamais.

Il y a eu 12 présentations sur divers problèmes. Les participants ont pu les comparer et puis réfléchir sur les mesures possibles pour minimiser les risques.

Une difficulté dans ce domaine est d'évaluer la probabilité que quelque chose qui n'est jamais arrivé se produise dans l'avenir. En outre, il existe des différences entre ce que nous pouvons, et devons, faire en termes de menaces naturelles et d’autres types de risques que nous avons créés nous-mêmes.

Si nous voulons que l'humanité continue à prospérer nous devons donc faire face à toutes sortes de menaces Cependant, pour le siècle à venir nous pouvons probablement ignorer les supernovas et autres menaces cosmiques et plutôt nous concentrer sur les risques que nous avons créés nous-mêmes.

Une conclusion a été qu’une guerre nucléaire est la plus grande menace. En suit suivent la biologie synthétique, qui crée les conditions nécessaires pour la conception de puissantes armes biologiques, la nanotechnologie et l'intelligence artificielle. Le risque du dernier est que les ordinateurs, agissant de plus en plus seuls, peuvent déclencher des réactions en chaîne au-delà control humain.

Une autre révélation a été nous avons pensé que la destruction de la race humaine serait le résultat d'événements naturels, accidents ou erreurs. Pourtant, des études montrent maintenant qu'il existe des gens qui ont pour but de nous détruire. Le X-Risk Institute a par exemple étudié les tueries dans des écoles américain et constaté qu’un bon nombre des auteurs aurait mises fin à toute l'humanité si seulement ils en avaient eu l'occasion. Ce qui les a empêchés est qu'ils n'ont pas encore eu les moyens.

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.