Pages

jeudi 17 septembre 2020

Après 2 ans sur les fonds marins le centre de donnée a maintenant revu le jour


Microsoft qualifie le concept comme fiable, pratique et économique en énergie. A placer des serveurs au fond de la mer semble être une bonne recette pour la fiabilité.

En juin 2018, au large des îles Orcades, Écosse, Microsoft a fait couler un conteneur avec 864 serveurs et une mémoire d’un peu plus de 27 pétaoctets dans la mer. Après avoir resté à une profondeur de 35 m pendant 2 ans, l'expérience appelée Project Natick, est maintenant terminée. Le résultat est positif.

Microsoft constate que ces serveurs sous-marins en moyenne ont fait beaucoup mieux que serveurs terrestres. En comparaison le taux d'erreurs n'était que 12%.

Il reste à savoir pourquoi si peu de serveurs avaient cessé à fonctionné. L'équipe de recherche pense que ce fait est dû à une combinaison de plusieurs facteurs mais qu’il y a 2 raisons principales. Premièrement parce que l’espace était rempli d'azote, ce qui élimine de la corrosion et deuxièmement parce qu’aucun technicien ne pouvait accidentellement heurter l'équipement.

Un autre important avantage avec serveurs sous-marin est le refroidissement. Via des échangeurs de chaleur, l'eau de mer refroidissait les serveurs. Sur terre ce refroidissement aurait consommé beaucoup plus d'énergie.

Des serveurs sous-marin ont aussi le potentielle d’être en proximité de côtés où vivent beaucoup de personnes, ce qui rendra la distance aux clients plus courte.

Une spéculation de Microsoft est d’interconnecter une douzaine de serveurs sous-marins pour former un cluster. Ces serveurs seraient, à un intervalle d’environ 5 ans, ramené à la surface pour remplacer les unités défectueux et mettre à niveau le matériel.

Source : Microsoft

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.