Définition SEO de Centre de données
- Sommaire
- Qu'est-ce qu'un centre de données ?
- Comment fonctionne un centre de données ?
- Le rôle des centres de données
- Les classifications d'un centre de données
Un centre de données ou data center est une infrastructure composée d'une installation informatique servant à héberger et centraliser des données. Google dispose de plusieurs centres de données qu'il utilise pour stocker et agrandir l'index de son moteur de recherche. En quoi consiste exactement un data center ? Comment fonctionne-t-il ? Et quelles sont les différentes classifications de ce système informatique ? C'est ce que nous vous proposons de découvrir à travers cet article.
Qu'est-ce qu'un centre de données ?
Par définition, un data center ou centre de données est un référentiel centralisé destiné à l'analyse et au stockage de données numériques. Il s'agit d'une installation informatique regroupant plusieurs machines (notamment des serveurs) servant à stocker et à distribuer des données via un réseau interne ou directement sur internet. Ce système d'archivage basé sur le cloud permet d'accéder aux informations enregistrées en temps réel, peu importe l'emplacement de l'utilisateur. Les moteurs de recherches (Google, Bing, Yahoo…) l'utilisent pour traiter et héberger les sites internet indexés par leurs robots d'indexation.
Comment fonctionne un centre de données ?
Le principe de fonctionnement d'un centre de données s'apparente à celui d'un disque de stockage. La différence, c'est que le data center offre une plus grande flexibilité en ce qui concerne la taille de l'espace disponible et l'accès aux informations enregistrées. Ce type d'installation peut être utilisé en interne comme en externe. À ce titre, certaines grandes entreprises, à l'exemple de Facebook, disposent de data centers répartis à divers endroits dans le monde. Par contre, d'autres entreprises optent pour des solutions plus simples comme la consolidation et la colocation.
Consolidation des données
Bien qu'il soit pratique pour une entreprise d'avoir une infrastructure interne dédiée au stockage et à la gestion de données, les coûts d'opération d'une telle installation peuvent être très élevés. Il s'agit notamment des frais liés à la consommation énergétique (alimentation et refroidissement des ordinateurs), à la maintenance des systèmes et à la sécurité des données. En effet, en fonction de sa taille, un centre de traitement de données peut nécessiter des dizaines de mégawatts d'énergie électrique pour fonctionner correctement. À cela s'ajoute le coût des équipements de sécurité et de prévention des risques d'incendie.
Pour minimiser tous ces frais de fonctionnement, certaines entreprises s'orientent vers la consolidation des données. Cela consiste à utiliser efficacement les ressources des serveurs informatiques afin de réduire le nombre total de data centers dont l'entreprise a besoin. Cette approche se décline en plusieurs solutions :
- La consolidation centralisée
- La consolidation physique
- La consolidation opérationnelle
La première solution consiste à rassembler tous les serveurs de chaque filiale dans un emplacement centralisé afin de réduire le coût de fonctionnement. La deuxième revient à fusionner les données sur un nombre réduit de machines informatiques. En ce qui concerne la troisième option, elle consiste à exécuter plusieurs « serveurs virtuels » sur une seule machine grâce aux techniques de partitionnement et de virtualisation.
Colocation d'espace de serveur
Aussi appelée housing de serveur, la colocation de data center consiste à louer un espace privé ou partagé au sein d'un système de cloud computing appartenant à une entreprise tierce. Cette solution est de plus en plus plébiscitée auprès des sociétés qui ne disposent ni des ressources ni de l'espace nécessaires pour installer une infrastructure de traitement de données. Et pour cause, elle permet de bénéficier d'un service sur mesure avec :
- Une infrastructure informatique sécurisée
- Une climatisation qui assure le refroidissement des machines
- Une alimentation électrique fiable qui assure une haute disponibilité des serveurs
L'avantage avec cette solution, c'est que les coûts de fonctionnement sont mutualisés. Les frais liés à la consommation d'énergie électrique, à la climatisation et à la sécurité s'en trouvent donc réduits. Ainsi, chaque « locataire » du réseau de serveurs bénéficie de toutes les fonctionnalités du service cloud, sans avoir à déployer un budget trop important.
Les centres de données Google
Pour répondre aux demandes des utilisateurs qui s'élèvent à plus de 6,9 milliards chaque jour (en 2021), Google détient et gère plusieurs data centers partout dans le monde. Officiellement, le géant californien dispose de 13 centres de données répartis en Amérique, en Europe et en Asie. Cependant, selon certaines sources, ces derniers seraient en réalité une quarantaine et comprennent plus de 900 000 serveurs. Ceux-ci fonctionnent en permanence 24h/24 et 7j/7 pour maintenir le moteur de recherche internet en activité. Cela nécessite une importante quantité d'électricité.
Il y a quelques années, on estimait qu'une recherche effectuée sur le moteur de recherche californien consommait la même quantité d'énergie qu'une ampoule allumée pendant 1 heure. Selon une étude publiée par The Guardian en 2011, un centre de données Google consomme chaque année la même puissance énergétique que la ville de Newcastle qui comptait plus de 374 200 habitants à l'époque. Avec ce niveau de consommation d'énergie électrique, l'impact sur l'environnement n'est pas négligeable.
Face à cet enjeu de pollution énergétique, la firme de Mountain View envisage de faire fonctionner l'intégralité de ses infrastructures cloud avec une énergie renouvelable dès l'horizon 2030. Ce projet alliant écologie et fiabilité permettra de limiter la prolifération des agents polluants et le rejet de chaleur dans l'environnement.
Le rôle des centres de données
En principe, les data centers sont destinés à l'hébergement, au traitement et à la gestion des milliards de gigaoctets de données disponibles sur internet. En entreprise, ils servent à archiver et à sécuriser les informations sensibles et celles jugées indispensables au fonctionnement des différentes filiales d'une société. Pour les moteurs de recherche, ces sites physiques de stockage sont nécessaires pour héberger les index, afin de garantir une disponibilité importante des pages web. Ainsi, lorsqu'un internaute lance une requête sur un moteur de recherche, les spiders parcourent les data centers les plus proches afin de proposer très rapidement un résultat plus ou moins fiable et exhaustif.
Les classifications d'un centre de données
La qualité et la fiabilité d'un centre de données n'étant pas proportionnelles à la taille physique des installations, le choix d'une solution ou d'une offre cloud peut s'avérer difficile. Pour remédier à cela, l'Uptime Institute propose 4 niveaux de certification appelés « Tier » pour évaluer efficacement la capacité d'hébergement et la qualité des services d'un data center.
Tier I : Data Center Basique
Ce premier niveau de certification correspond à un data center raccordé à une seule alimentation électrique. Ce type d'installation ne bénéficie d'aucune source d'énergie supplémentaire ni d'un renforcement de capacité, que ce soit pour les équipements informatiques ou la climatisation. L'Uptime Institute estime que les systèmes classés dans cette catégorie offrent un taux de disponibilité de 99,671%. Ils nécessitent minimum 1 arrêt de services chaque année pour la maintenance des installations (en moyenne 28,8 heures d'interruption par an).
Tier II : Data Center avec Redondance
Il s'agit ici d'un centre de données dont l'apport en électricité et la capacité de calcul sont renforcés par des équipements tels que :
- Des cuves à fioul
- Des groupes électrogènes
- Des câbles BUS
- Des onduleurs
- Des producteurs de froids
Un réseau d'ordinateurs et de serveurs certifié Tier II offre un taux de disponibilité de 99,741% et nécessite en moyenne 22 heures d'interruption chaque année.
Tier III : Data Center avec Maintenabilité
Avec ce type de centre de données, tous les composants électriques et informatiques sont renforcés pour une efficacité optimale. Ainsi, l'ensemble du système de cloud computing est relié à deux sources d'alimentation en électricité. Ce qui permet de procéder à la maintenance sans interrompre les services. La certification Tier III garantit un taux de disponibilité de 99,982%. Il enregistre seulement 1,6 heure d'interruption en moyenne chaque année.
Tier IV : Data Center avec Tolérance aux pannes
Le Tier IV correspond au niveau d'efficacité le plus élevé du classement de l'Uptime Institute. Un centre de données certifié Tier IV dispose de plusieurs sources d'énergie qui alimentent continuellement les équipements informatiques. Cela permet de bénéficier des fonctions « Continuous Cooling » et « Continuous Power » qui assurent la continuité des services même en cas d'arrêt imprévu d'un composant. Ce type de data center offre un taux de disponibilité de 99,995% et une interruption de moins d'une heure par an.