Cette semaine, Ibrahim El Gharbi, consultant mc2i, évoque le futur rôle des supercalculateurs dans la gestion des énergies renouvelables. « Les supercalculateurs sont des leviers au service de la transition énergétique (...) Mais certains calculs très complexes sont encore trop chronophages », explique-t-il.
L’intermittence des sources de production d’électricité renouvelable, c’est-à-dire leur fluctuation en fonction des contraintes météorologiques (ensoleillement, vents, etc.), ainsi que l’augmentation de la production dite « décentralisée » et les ambitions de sobriété énergétique complexifient la gestion de l’équilibre entre production et consommation.
L’intégration des énergies renouvelables sur les réseaux électriques nécessite une adaptation des infrastructures du réseau et de la gestion du système électrique.
Supercalculateur : un précieux levier pour l’insertion des énergies renouvelables
Les producteurs d’énergies doivent mieux connaître en permanence les besoins en matière de consommation, les niveaux de production et l’état du réseau électrique. La modernisation de ce dernier est un enjeu de taille, nécessaire afin d’assurer un niveau de production au plus proche de la demande.
À cet effet, les supercalculateurs permettent grâce à des algorithmes d’optimisation de trouver les emplacements optimaux d’installation tels que les parcs solaires ou éoliens. Cela permet de minimiser les coûts d’installation en fonction de la demande d’énergie et de la disponibilité des ressources, et d’estimer un coût optimal de production.
L’insertion croissante des ENR sur le réseau a un impact sur le maintien de l’équilibre offre-demande. Prenons l’exemple des chercheurs du département Osiris d’EDF qui sont en charge de l’optimisation du portefeuille des entités de production et du réseau d’EDF et contribuent au maintien de l’équilibre offre-demande. Ces chercheurs utilisent quotidiennement les clusters HPC constitués de plusieurs serveurs de calculs synchronisés de manière à distribuer les processus de calculs sur différents nœuds parallèles.
C’est sur cette technologie que repose leur application Giroscop, présentée dans le cadre des Grands Challenges d’EDF, qui permet de générer des scénarios conjoints de production-consommation utiles au dimensionnement du réseau de distribution. Concrètement, les chercheurs peuvent prévoir, grâce à cet outil, la production et la consommation sur différents horizons et arrivent à prendre en compte la complexité des nouvelles variables de prévision que génèrent le développement de la production d’énergie renouvelable (météo, évolution du parc, cadre réglementaire etc.)
Ainsi, ces prévisions d’un haut niveau de précision permettent de prendre en compte la complexité des nouvelles variables de prévision que génère le développement de la production d’énergie renouvelable. Avec les HPCs d’EDF, ces calculs ont été réalisés en 5 heures sur le HPC Gaïa, contre... 3.000 heures avec un calculateur classique, soit tout de même plus de 4 mois.
Un atout indispensable à l’optimisation de la production énergétique
La programmation de la production représente un premier enjeu, elle doit être réalisée en optimisant l’insertion de la production décentralisée. Par exemple, pour les prévisions à court terme, la R&D d’EDF a mis au point pour la direction optimisation Amont/aval & Trading, un outil appelé Apogène, capable de prévoir chaque jour pour le lendemain un programme de production optimal des centrales EDF. Il s’agit d’un problème mathématique très complexe : une équation à 250.000 inconnues, à résoudre en temps opérationnel contraint de l’ordre d’une dizaine de minutes.
La gestion des flux d’électricité en temps réel est un enjeu décisif des « réseaux intelligents ». Elle repose sur la rapidité des calculs afin de mieux coordonner l’ensemble des mailles du réseau électrique, du producteur au consommateur final. Dans cette perspective, le programme de coopération Alpenergy qui rassemble une dizaine de partenaires européens de l’espace Alpin, a développé le concept de Virtual Power Plant (VPP). Il s’agit d’un outil de centrale virtuelle permettant de gérer la production en temps réel en fonction de la consommation.
L’enjeu est de taille : à titre d’exemple EDF investit près de 4 milliards d’euros chaque année dans l’optimisation de sa production. Grâce aux technologies HPC permettant de simplifier et rationaliser les tâches analytiques, EDF peut se projeter sur des gains financiers conséquents (40 millions d’euros par point).
Et dans le secteur des hydrocarbures ?
Un défi majeur des entreprises du secteur des hydrocarbures est la localisation de précieuses réserves de pétroles et de gaz. Leur rentabilité est directement corrélée au temps nécessaire à l’analyse des données exploratoires.
Les supercalculateurs permettent, également, de maîtriser les risques géologiques en phase d’exploration et de développement et ainsi accélérer les études et l’exécution des projets.
Total mise sur cette puissance de calcul pour accroître la valeur de ces actifs et optimiser l’exploitation de ces champs d’hydrocarbures. L’entreprise a annoncé en juin 2019 le lancement d’un HPC baptisé Pangea III. Ce supercalculateur construit par IBM traitera des données sismiques complexes lors de la recherche d’hydrocarbures avec une vitesse dix fois supérieure à celle d’avant.
Les supercalculateurs sont des leviers au service de la transition énergétique, cependant l’optimisation d’un tel parc de production requiert des informations, quasiment en temps réel, dont le stockage est possible par les technologies actuelles du Big Data. Mais certains calculs très complexes sont encore trop chronophages.
L’informatique quantique intervient dans ce contexte comme un pari considérable qui permettrait, à l’avenir, de diminuer massivement les temps de calcul des supercalculateurs et d’effectuer bien plus d’opérations de manières synchronisées. Google en est l’illustration ; grâce à sa transition “quantique” réussie récemment, le géant du Web a réalisé un calcul de cryptographie en 3 minutes, qui prendrait 10.000 ans à un supercalculateur classique !