Disponibilité électrique : la fin d’une ère ?
Que l’on soit adepte des énergies renouvelables n’enlève rien au fait que grâce à une électricité majoritairement d’origine nucléaire (75% en 2009), la France dispose d’une énergie électrique stable et de qualité. Ceci permet de surcroit de bénéficier d’un taux d’émission de CO2 par kWh le plus faible d’Europe après celui de la Suède.
La consommation d’électricité en France augmente de manière quasi continue depuis 20 ans et l’on constate une recrudescence de pics de consommation (92 GW en janvier 2009 contre 86 GW en 2006). A contrario, le parc vieillissant de nos centrales nucléaires a engendré en 2009 la première baisse significative de la production d’électricité nucléaire avec une chute de 7 % entre 2008 et 2009. Cette baisse, non compensée par les énergies alternatives, est majoritairement due aux travaux de maintenance qui ont concernés jusqu’à 18 des 58 réacteurs français l’année dernière.
Ainsi en octobre 2009, pour la première fois depuis 27 ans, la France a du importer de l’électricité pour subvenir à ses besoins !
Cette situation n’est pas sans impact pour la distribution électrique et nombre d’acteurs ont constaté des coupures ou ruptures de service. Alors même que les particuliers sont relativement peu impactés par les coupures, les industriels, et notamment les opérateurs de centre de données informatiques, voient les choses tout autrement. En effet, ces derniers garantissent couramment à leurs clients une disponibilité électrique de 99,995%, alors même que l’engagement d’ERDF est basé sur un nombre de coupures par an compris entre 4 et 36, hors travaux et selon le site !
99,995% peut paraitre élevé de prime abord, mais cela revient à accepter 24 minutes de rupture électrique par an. A l’échelle de l’informatique, l’impact d’une coupure inopinée peut avoir des conséquences qui dépassent largement le temps de la coupure, puisque le rétablissement de systèmes arrêtés brutalement n’est que rarement sans dommage.
Ainsi Fabrice Coquio (Directeur Général d’Interxion) dont la société opère plus de 27 datacenters en Europe, totalisant 55 000 m², confirme : "Nous avons constaté 20 fois plus de ruptures de service entre 2008 et 2009. Sur les 6 premiers mois de l’année 2010, ce nombre a encore doublé par rapport au premier semestre de 2009".
Jean-christophe Faulon, responsable infrastructure de Sungard, partage cet avis : "De notre côté, nous avons constaté une multiplication par 5 du nombre de ruptures de services entre 2008 et 2009, sans avoir d’explications précises du distributeur". Dans ces 2 cas, les coupures ont été sans impact pour leurs clients puisque l’infrastructure est dimensionnée pour supporter des pannes de ce type. Dans la majorité des cas, le passage en mode secours de l’infrastructure a duré moins de 8 secondes, suffisamment cependant pour engendrer des disfonctionnements impactants chez des opérateurs de moindre niveau.
Ce type de pannes sollicite fortement les infrastructures, ainsi ces dernières, fussent-elles conçues pour supporter ces arrêts électriques, n’en sont pas moins fragilisées par l’accroissement de leur utilisation.
Tous les sites et toutes les régions ne sont pas égales face à ces interruptions. Ainsi certaines sont structurellement plus sensibles que d’autres, comme la région PACA qui a concentré une part importante des coupures comptabilisées par RTE en 2009.
Les évènements climatiques sont aussi un facteur aggravant des risques, notamment en cas d’orage. Pour la première fois, nous avons aussi constaté cette année des évènements climatiques impactant simultanément la totalité des datacenters européens, avec, par exemple, l’explosion du volcan islandais. Cette éruption a uniquement impacté, de manière préventive, les systèmes de ventilation des datacenters, mais rappelle que nombre d’évènements, dont certains paraissent improbables, finissent par se produire et peuvent avoir un réel effet sur des infrastructures parfois distantes de plusieurs milliers de kilomètres.
Les opérateurs de centre de données doivent donc réaliser des architectures d’un niveau de complexité croissant, afin de supporter les éventuelles défaillances de fourniture électrique.
A titre d’exemple, dans un datacenter de dernière génération, il faut environ 1500m² de salles d’infrastructure technique pour 1000m² de salle informatique. Les infrastructures de ce type, même idéalement urbanisées et exploitées, visent un PUE de 1,5 pour les meilleurs, soit une surconsommation de 50% (https://www.greenit.fr/article/energie/faut-il-choisir-entre-disponibilite-du-datacenter-et-pue).
Considérant à la fois cette dégradation de la qualité de la fourniture électrique, le développement de la demande (https://www.greenit.fr/article/acteurs/hebergeur/23-de-croissance-annuelle-pour-les-datacenters-sur-les-4-prochaines-annees) et l’augmentation du niveau de disponibilité attendu, les clients finaux vont devoir de plus en plus se tourner vers des datacenter de haut niveau.
A l’échelle nationale, cela se traduira par une augmentation significative de la consommation électrique. Les émissions de CO2 seront alors d’autant plus élevées que les pics de consommation font appel aux centrales thermiques.
Les engagements en terme de développement durable pris par les sociétés sont rapidement oubliés face aux exigences de disponibilité et aux contraintes économiques. Pour contrebalancer cette dérive il faudrait que l’utopique datacenter vert arrive mais ce ne sont pas les effets d’annonces, à tendance de Greenwashing, qui sauront m’en convaincre.
Sources :
RTE : http://www.rte-france.com/uploads/media/pdf_zip/publications-annuelles/energie_electrique_en_france_2009.pdf).
http://www.rte-france.com/fr/actualites-dossiers/a-la-une/pics-de-consommation-electrique-en-region-paca-risque-de-coupures-d-electricite