Microsoft
qualifie le concept comme fiable, pratique et économique en énergie. A placer
des serveurs au fond de la mer semble être une bonne recette pour la fiabilité.
En juin 2018, au large des
îles Orcades, Écosse, Microsoft a fait couler un conteneur avec 864 serveurs et
une mémoire d’un peu plus de 27 pétaoctets dans la mer. Après avoir resté à une profondeur de 35
m pendant 2 ans, l'expérience appelée Project Natick, est maintenant terminée.
Le résultat est positif.
Microsoft constate que ces
serveurs sous-marins en moyenne ont fait beaucoup mieux que serveurs terrestres.
En comparaison le taux d'erreurs n'était que 12%.
Il reste à savoir pourquoi
si peu de serveurs avaient cessé à fonctionné. L'équipe de recherche pense que
ce fait est dû à une combinaison de plusieurs facteurs mais qu’il y a 2 raisons
principales. Premièrement parce que l’espace était rempli d'azote, ce qui
élimine de la corrosion et deuxièmement parce qu’aucun technicien ne pouvait accidentellement
heurter l'équipement.
Un autre important
avantage avec serveurs sous-marin est le refroidissement. Via des échangeurs de
chaleur, l'eau de mer refroidissait les serveurs. Sur terre ce refroidissement
aurait consommé beaucoup plus d'énergie.
Des serveurs sous-marin
ont aussi le potentielle d’être en proximité de côtés où vivent beaucoup de personnes,
ce qui rendra la distance aux clients plus courte.
Une spéculation de Microsoft
est d’interconnecter une douzaine de serveurs sous-marins pour former un
cluster. Ces serveurs seraient, à un intervalle d’environ 5 ans, ramené à la
surface pour remplacer les unités défectueux et mettre à niveau le matériel.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.