Publication Cover
LHB
Hydroscience Journal
Volume 108, 2022 - Issue 1
608
Views
0
CrossRef citations to date
0
Altmetric
Special Section: HydroES 2021

Questions ouvertes pour une optimisation stochastique conjointe d’une chaîne hydro-électrique et de moyens de productions intermittents

Open questions about a joint stochastic optimisation of an hydropower cascade and intermittent power generations

, &
Article: 2063080 | Published online: 16 Jun 2022

RÉSUMÉ

La prévision, l’optimisation et la commercialisation de la production hydro-électrique du Rhône font partie des missions opérationnelles de la Compagnie Nationale du Rhône (CNR). Une chaîne d’outils pour la prévision des données de production et de prix de marché de l’électricité, ainsi qu’un optimiseur automatique pour l’aide à la décision sont utilisés quotidiennement dans le processus opérationnel. Le cadre déterministe est actuellement suffisant pour élaborer un programme présentant un chiffre d’affaires optimisé. Néanmoins, l’augmentation des productions intermittentes (éolien, photovoltaïque) dans le système électrique et dans le périmètre d’équilibre CNR conduit à envisager la flexibilité de production des usines hydro-électriques du Rhône comme un moyen pour compenser les écarts de prévision. Dans ce cas, un cadre stochastique semble plus adapté. L’objectif de cet article est de présenter les réflexions qui nous semblent fondamentales pour envisager le passage du cadre déterministe au cadre stochastique pour l’optimiseur. À défaut d’y apporter toutes les réponses, nous espérons tracer des pistes et ouvrir les débats. Un premier axe de réflexion concerne la modélisation des incertitudes. Un deuxième axe de réflexion concerne le choix de la méthode d’optimisation dans le cadre stochastique. Un dernier axe de réflexion concerne le protocole de validation des méthodes d’optimisation dans le cadre stochastique.

ABSTRACT

Forecasting, optimizing and selling the hydropower production of the Rhône river are operational missions of Compagnie Nationale du Rhône (CNR). A tool chain for forecasting production and electricity prices, as well as an automatic optimizer for decision support are daily used during the operational process. The deterministic framework is currently sufficient for scheduling a production plan with optimal revenues. Nevertheless, the increase of intermittent energy sources (wind and solar) in the electrical system and in the CNR’s balance perimeter leads to consider the production flexibility of the Rhône river as a new way to compensate for imbalances caused by forecasting uncertainty. In this case, a stochastic framework seems more appropriate. The goal of this paper is to present reflexion issues that seem essential in order to adapt the optimizer from a deterministic to a stochastic framework. Even if we cannot provide all the answers, we hope to suggest some new ideas and open up the discussions. The first topic of discussion is about uncertainty modeling. A second topic of discussion is about formulating the optimization problem in the stochastic framework. A last topic of discussion is about defining a proper validation protocol for the stochastic optimization methods.

1. Le contexte de l’optimisation à CNR

1.1. La chaîne hydro-électrique du Rhône

Parcourant 812 km entre l’exutoire du lac Léman en Suisse et son embouchure sur la Mer Méditerranée, le Rhône est le plus puissant des fleuves français. Son aménagement a été confié dès 1934 à la Compagnie Nationale du Rhône (CNR) autour de trois objectifs : la production d’électricité, le développement de la navigation fluviale et l’irrigation des terres agricoles. Ainsi, en tant que concessionnaire du Rhône, CNR exploite 18 aménagements hydro-électriques en cascade le long du Rhône en France, représentant une puissance installée d’un peu plus de 3100 MW.

À l’exception de Génissiat, l’aménagement hydro-électrique de tête, l’ensemble des aménagements exploités par CNR sont de type fil de l’eau, i.e. leur retenue ne peut stocker qu’un faible volume d’eau par rapport au débit journalier qui les traverse. Cette faible capacité de stockage ne permet que peu de modulation du débit sortant par rapport au débit entrant au niveau de chaque aménagement : tout au plus est-il possible de sur-produire ou de sous-produire durant quelques heures d’une même journée sur chaque aménagement. Or, la demande en électricité sur le réseau varie au sein d’une même journée alors que le fonctionnement du réseau électrique nécessite qu’à tout instant la production d’électricité soit égale à sa consommation. La variation de la demande engendre donc des prix de l’énergie variables au cours d’une journée, avec des heures de faible demande à bas prix et des heures de forte demande à prix élevés. Le défi de la gestion du Rhône est alors de synchroniser les sur- et sous-productions des usines hydro-électriques pour que leur production totale soit en phase avec la demande sur le réseau. La méthodologie principalement utilisée à ce jour consiste à créer des éclusées énergétiques synchrones le long du Rhône (Piron et al., Citation2015). L’objectif est ainsi de déplacer l’énergie des heures creuses vers les heures de forte demande au sein d’une même journée. Bien sûr, le programme de production doit impérativement et en priorité respecter les contraintes réglementaires strictes qui assurent la sûreté hydraulique, notamment pour la navigation, l’irrigation, l’environnement et la sûreté nucléaire.

1.2. L’optimisation de la production hydro-électrique

La production hydro-électrique du Rhône est vendue sur les marchés de l’électricité, dont une partie sur le marché day-ahead (livraison le lendemain). Les prix du marché day-ahead, définis au pas horaire, reflètent l’équilibre au sein d’une même journée entre l’offre et la demande d’électricité sur le réseau, i.e. entre la production et la consommation. Les heures les plus chères (respectivement les moins chères) sont celles où les moyens de production mis en œuvre pour répondre à la demande du réseau sont les plus couteux (respectivement les moins couteux). Ainsi, la gestion de la production du Rhône par éclusées synchrones est une méthode qui maximise les revenus de CNR et permet de substituer une énergie renouvelable à une énergie couteuse et souvent fortement carbonée (production de pointe au gaz, charbon, fioul). L’efficacité de cette gestion repose notamment sur la bonne précision des prévisions d’apports en eau des affluents du Rhône et des prix de l’électricité, ce qui a conduit au développement en interne CNR d’une chaîne complète d’outils de prévision (Bompart et al., Citation2009). La planification à court-terme du programme de production du Rhône est effectuée plusieurs fois par jour en opérationnel à des instants réguliers, sur un horizon de quelques jours (généralement jusqu’à la fin du surlendemain), selon une résolution temporelle fine (pas de temps inférieurs à 1 h) et en utilisant les conditions initiales constituées par l’état du fleuve mesuré en temps réel et les dernières prévisions à disposition.

La planification de la production du Rhône actuelle est effectuée manuellement, ce qui est couteux en temps, limitant le temps disponible pour l’expertise dans un contexte opérationnel en temps contraint. En outre, les évolutions du marché de l’énergie nous incitent à développer d’autres sources de revenus (marché des services systèmes, marché de capacité par exemple), ce qui complexifie la gestion manuelle du Rhône. C’est pourquoi un outil d’aide à la décision, appelé POMMIER (Plateforme d’Optimisation et de Modulation Mutualisées pour l’Intégration des Énergies Renouvelables) a été développé en interne afin d’appuyer l’équipe qui planifie la production du Rhône. Il s’agit d’un optimiseur automatique qui permet de définir un programme de production du Rhône qui maximise le chiffre d’affaires tout en respectant l’ensemble des contraintes d’exploitation. En plus de libérer du temps d’expertise aux opérateurs pendant les calculs automatiques, l’outil POMMIER permet de chercher le programme de production optimal au-delà de ceux qui peuvent être élaborés par les schémas d’éclusées synchrones classiques.

Mathématiquement, POMMIER résout un problème d’optimisation sous contraintes de très grande dimension (environ 500,000 variables de décision), dont la formulation s’adapte facilement aux évolutions des contraintes d’exploitation et du marché de l’énergie. En raison de la grande dimension du problème, la principale difficulté concerne le temps de calcul de l’optimiseur qui doit être compatible avec le processus opérationnel : le respect des échéances impose de fournir une solution en moins d’une heure. Pour cela, le modèle physique utilisé dans POMMIER est simplifié, notamment en linéarisant certaines équations (dont les lois de puissance) pour former un problème d’optimisation linéaire mixte (mixed-integer linear programming ; Chang et al., Citation2001). En pratique, l’outil POMMIER est écrit en langage GAMS (Corporation, G. D., Citation2020) et fait appel au solveur CPLEX MIP (IBM Studio, I. C., Citation2016). L’outil POMMIER est utilisé en opérationnel pour fournir une alternative éventuelle aux schémas classiques d’éclusées considérés par l’équipe de programmation. De nombreuses évolutions sont en cours pour améliorer ses performances mais aussi pour intégrer d’autres sources de revenus, par exemple les services au réseau (services systèmes et marché de capacité).

1.3. Vers une vision stochastique de l’optimisation

La définition du problème d’optimisation de l’outil POMMIER fait intervenir des variables d’entrée définies sur l’ensemble des pas de temps de l’horizon de calcul. On peut citer par exemple les bornes minimales et maximales des cotes à ne pas dépasser à chaque aménagement ou encore la chronique attendue de production d’énergie intermittente éolienne et photovoltaïque, ces énergies étant amenées à être gérées conjointement avec le Rhône au sein d’un périmètre de responsable d’équilibre vis-à-vis de RTE (gestionnaire du Réseau Transport d’Électricité). La valeur prise par une variable d’entrée sur un pas de temps donné constitue ce que l’on appelle un paramètre d’entrée du problème d’optimisation. Certains de ces paramètres d’entrée sont obtenus grâce à des prévisions, comme par exemple les apports en eau des affluents du Rhône et les prix de l’électricité.

L’outil POMMIER actuellement utilisé en opérationnel est déterministe car il utilise des prévisions déterministes, i.e. des prévisions qui considèrent une seule valeur pour chaque paramètre d’entrée prévu. Il ne permet donc pas de prendre en compte les incertitudes de prévision, i.e. les écarts possibles entre les prévisions déterministes et les observations connues a posteriori en temps réel. Or, l’optimalité des programmes de production renvoyés par l’outil POMMIER déterministe peut être fortement remise en question du fait de cette incertitude de prévision. Ces programmes peuvent non seulement s’avérer peu optimaux en termes de chiffre d’affaires avec les paramètres observés a posteriori, mais aussi nécessiter des corrections qui viennent grever ce chiffre d’affaires à mesure que les incertitudes de prévision se dévoilent afin d’assurer à tout instant le respect des contraintes d’exploitation.

Par ailleurs, CNR développe ses actifs de productions éoliennes (plus de 670 MW de puissance installée à ce jour) et photovoltaïques (plus de 110 MWc de puissance installée à ce jour) et renforce son rôle d’agrégateur d’électricité, augmentant rapidement la part des productions intermittentes dans le périmètre d’équilibre CNR. Ces productions ont une prévisibilité moindre que la production hydraulique : elles sont susceptibles de générer des écarts significatifs dans le périmètre d’équilibre CNR, entraînant alors des manques à gagner liés à des pénalités d’écart. Ces écarts peuvent être compensés en faisant un nouvel usage de la flexibilité du Rhône, classiquement entièrement dévolue au déplacement d’énergie via les éclusées synchrones. On a alors un partage du potentiel de flexibilité du Rhône, entre compensation d’écarts et déplacement d’énergie, en fonction du volume des écarts à compenser et donc de l’incertitude sur la production intermittente. Cet usage est économiquement pertinent lorsque le prix des pénalités des écarts est supérieur à la différence de prix potentiellement captée par le déplacement d’énergie : c’est un facteur supplémentaire à intégrer dans l’établissement des programmes de production du Rhône mais qui suppose de prendre en compte l’incertitude portant sur la production intermittente.

Il est donc nécessaire de tenir compte des incertitudes de prévision dans l’optimisation et de faire évoluer l’outil POMMIER d’un cadre déterministe à un cadre stochastique. Cette évolution engendre de nombreuses interrogations de méthodologie et c’est pourquoi nous nous proposons dans cet article de partager nos réflexions à travers trois grandes problématiques, en les illustrant avec notre expérience sur l’outil POMMIER. La première concerne le choix de la représentation des incertitudes des prévisions alimentant le problème d’optimisation (section 2). La deuxième problématique concerne le choix de la méthode d’optimisation en univers probabiliste (section 3), en lien avec la modélisation des incertitudes et leur rôle dans la gestion de la production du Rhône. La dernière problématique concerne la validation d’un optimiseur en univers probabiliste (section 4), en comparaison avec un optimiseur déterministe et en lien avec une utilisation au cœur du processus opérationnel.

2. Comment caractériser les incertitudes ?

2.1. Quelles incertitudes prendre en compte ?

Même si selon la fameuse citation attribuée à Albert Einstein « Dieu ne joue pas aux dés », force est de constater que l’ensemble des variables considérées en entrée du processus d’optimisation des programmes du Rhône sont incertaines. Les sources d’incertitudes sont extrêmement variées. On peut citer, entre autres :

  • les incertitudes liées à la situation météorologique et hydrologique, impactant la production d’énergie éolienne et photovoltaïque ainsi que les débits des affluents du Rhône,

  • les incertitudes liées aux conditions du marché de l’énergie, impactant les prix horaires de l’électricité,

  • les incertitudes liées aux modélisations considérées (modélisation hydraulique, modélisation du système énergétique …),

  • les incertitudes induites par les incidents d’exploitation (avaries sur des groupes de production par exemple).

Prendre en compte l’ensemble de ces incertitudes nous parait illusoire en l’état actuel. Même si nous étions capables d’exprimer l’incertitude de chacun des paramètres d’entrée, la dimension du problème d’optimisation serait bien trop grande pour permettre sa résolution. Il est nécessaire de limiter le nombre de variables d’entrée considérées comme incertaines, en ne retenant que celles dont l’incertitude a le plus d’impact sur les solutions optimales.

Il convient de noter que dans l’expression du problème d’optimisation, toutes les variables d’entrée ne jouent pas le même rôle : certaines vont influer directement sur les contraintes du problème. Ainsi, la contrainte de cote minimale de marnage autorisée sur un aménagement dépend du débit entrant dans cet aménagement, et donc des débits des affluents amonts. Au contraire, d’autres variables d’entrée, telles que le prix de l’électricité, même si elles impactent la solution optimale, sont indépendantes des contraintes du problème. La prise en compte de l’incertitude de ces deux types de variable ne se fera donc pas nécessairement de la même façon.

Pour le développement de l’optimiseur stochastique, nous avons fait le choix de ne considérer ni les incertitudes de modélisation, ni celles concernant les incidents d’exploitation. Pour ce qui est des premières, elles correspondent en général davantage à des erreurs et à des biais systématiques qu’à des incertitudes d’origine aléatoire, si bien que l’on peut essayer d’en diminuer l’impact par l’utilisation de termes correcteurs empiriques déterministes. Concernant les secondes, il a été considéré que la fréquence d’occurrence des évènements d’exploitation était suffisamment faible pour que leur survenue puisse être traitée opérationnellement comme un évènement fortuit. Ainsi, seules sont considérées les incertitudes portant sur les débits des affluents du Rhône, celles entachant la production d’énergie éolienne et photovoltaïque (appelée production intermittente dans la suite), et celles associées aux prix de vente de l’électricité. Ce choix est éminemment discutable. Il pourra être amené à évoluer en fonction des retours d’expériences ou du développement des capacités de résolution de notre optimiseur stochastique.

2.2. Sous quelle forme exprimer les incertitudes ?

Une fois que l’on a défini quelles sont les variables d’entrée dont l’incertitude est prise en compte, il faut exprimer cette incertitude via une prévision probabiliste des paramètres d’entrée associés.

Dire qu’un paramètre est incertain revient à dire que sa valeur qui sera effectivement observée est issue d’une loi définissant les probabilités d’occurrence de l’ensemble des réalisations possibles. Même si en pratique sa connaissance complète est rarement accessible, cette loi de probabilité est l’expression la plus complète que l’on puisse avoir de l’incertitude d’un paramètre considéré individuellement. Disposant de cette loi, l’optimiseur connait toute la variabilité possible du paramètre, quitte, selon la méthode de résolution employée, à éventuellement n’utiliser qu’une partie de cette information.

La loi de probabilité d’un paramètre incertain ne contient cependant qu’une information univariée : elle ne tient pas compte des valeurs prises par d’autres paramètres incertains voisins non nécessairement indépendants, ni même des valeurs que prendra le même paramètre à d’autres instants. Or, les débits de deux rivières voisines, les productions de deux parcs photovoltaïques proches ou encore les prix de marché de deux heures consécutives ne sont pas indépendants : ils présentent une corrélation parfois forte. Le jeu de paramètres considéré en entrée de l’optimiseur doit respecter une cohérence spatiale et temporelle pour être pertinent. Ceci est d’autant plus vrai lorsque l’on s’intéresse à un actif distribué linéairement tel que le Rhône : la problématique de la concomitance des débits des affluents est un élément majeur à prendre en compte. Il devient alors nécessaire d’utiliser des lois de probabilité jointes qui définissent la loi de probabilité d’un paramètre en fonction des valeurs prises par les paramètres dépendants.

En pratique, ces lois jointes sont par nature difficiles à exprimer et à manipuler. Nous avons donc préféré nous tourner vers une approche ensembliste, qui consiste à considérer un ensemble fini et équiprobable de scénarios multivariés (i.e. rassemblant l’évolution de plusieurs variables), chacun étant lui-même cohérent spatialement et temporellement. On considère ainsi non pas les lois de probabilité jointes, mais un ensemble d’occurrences issues de ces lois de probabilité que l’on ne cherche ainsi pas à exprimer directement. La dispersion entre les différents scénarios représente l’incertitude attachée aux différents paramètres. Pour les paramètres dépendants de la météorologie (débits, production éolienne et photovoltaïque) on se base donc sur les prévisions d’ensemble de modèles météorologiques, obtenues en faisant tourner de multiples fois ces modèles en perturbant légèrement les conditions atmosphériques initiales ainsi que parfois les hypothèses de modélisation (Bauer et al., Citation2015). C’est l’utilisation d’un modèle numérique de prévision météorologique qui permet d’assurer pour chaque scénario la cohérence spatio-temporelle des paramètres. Pour les paramètres associés aux prix de l’électricité, les valeurs échantillonnées sont obtenues par un modèle d’erreur univarié et la cohérence temporelle est formée a posteriori par réarrangement statistique.

La dépendance entre les paramètres d’entrée ne concerne pas uniquement leur cohérence spatio-temporelle. En pratique, les apports en eau, les prix et les productions intermittentes sont légèrement corrélés entre eux. Ces corrélations pourraient même augmenter à l’avenir avec l’intégration d’une part croissante d’énergies intermittentes (corrélation négative volume-prix). Néanmoins, la prise en compte de ces corrélations apporte un degré de complexité supplémentaire au problème d’optimisation, dont on peut se demander s’il est vraiment nécessaire : les variables d’entrée incertaines ayant des rôles très différents, est-ce réellement pertinent de les combiner entre-elles sous la forme de scénarios si leur corrélation est très faible ?

L’une des limites de l’approche ensembliste est que le nombre de scénarios considérés est fini : l’optimiseur ne peut pas prendre en compte de possibilités d’occurrence qui ne figurent pas dans les scénarios établis. Il ne dispose d’aucune information sur l’évolution de l’incertitude pour des fréquences d’occurrence rare.

2.3. L’écueil de la fiabilité

Un optimiseur stochastique tient compte des incertitudes qui entrent en jeu dans la définition du problème en se basant sur les lois de probabilité associées à chaque paramètre incertain (ou sur les probabilités des différents scénarios dans le cas d’une approche ensembliste). La solution donnée par un optimiseur stochastique n’a donc de sens que si les lois de probabilité considérées sont cohérentes avec la réalité statistique réelle de ces incertitudes. Un évènement ayant une probabilité d’occurrence estimée de 10% doit ainsi effectivement se produire dans environ 10% des cas. S’il se produit moins souvent, uniquement dans 5% des cas par exemple, l’optimiseur va surestimer le coût associé au risque d’occurrence de cet évènement, conduisant à une solution sous-optimale dans la réalité.

Cette cohérence statistique entre les lois d’incertitude estimées et l’incertitude « réelle » est ce que l’on appelle la fiabilité. Pour une prévision probabiliste parfaitement fiable, les évènements prévus sont observés avec la même fréquence empirique que leur probabilité d’occurrence prévue. Des défauts de fiabilité peuvent se présenter sous forme de biais de sur- ou sous-estimation (les événements sont observés plus ou moins souvent qu’annoncés par les prévisions) ou de défaut de sur- ou sous-dispersion (les événements observés couvrent une gamme de possibilités plus ou moins large qu’annoncé).

L’une des façons les plus sûres d’assurer la fiabilité des incertitudes est de considérer des incertitudes peu spécifiques, correspondant par exemple à une statistique des observations passées sur une longue période. Mais ces incertitudes sont alors peu informatives, couvrant une large gamme de possibilités d’occurrence non spécifiques à la situation réellement considérée. Pour faciliter la prise de décision, il faut aussi que les prévisions probabilistes soient fines, c’est-à-dire couvrent la plus petite gamme de possibilités d’occurrence. Cela suppose généralement d’effectuer des prévisions probabilistes spécifiques à la situation considérée. Un manque de finesse dans l’optimiseur pourrait entraîner des solutions peu optimales en chiffre d’affaires. On perçoit bien sûr que fiabilité et finesse sont en concurrence mais que ces deux attributs sont importants. Ainsi, en suivant le paradigme exprimé par Gneiting et al. (Citation2007), il est nécessaire de chercher à maximiser la finesse des prévisions probabilistes une fois que leur fiabilité est assurée.

Or, les prévisions d’ensemble que nous utilisons présentent des défauts de fiabilité significatifs : elles sont notoirement sous-dispersives, i.e. l’étendue de la gamme d’incertitude prévue est trop restreinte par rapport à ce qui est observé. Il est donc nécessaire, par des techniques de post-traitement statistique de corriger leur fiabilité. Le problème est que les techniques de correction habituellement employées telles que l’EMOS (Gneiting et al., Citation2005) ou la BMA (Raftery et al., Citation2005) sont des traitements univariés : chaque paramètre aléatoire ne peut être considéré qu’individuellement, sans prise en compte de ses liens avec les autres paramètres. On passe alors de scénarios cohérents mais non fiables à des lois de probabilité univariées fiables mais sans cohérence. Le processus de correction de la fiabilité entraîne donc la perte de la cohérence spatio-temporelle que l’on avait dans les ensembles bruts.

Heureusement, des techniques existent pour reconstruire la cohérence spatio-temporelle des prévisions, sans pour autant perdre à nouveau la fiabilité obtenue par post-traitement. Ces techniques, basées par exemple sur l’ECC (Bellier et al., Citation2017, Citation2018 ; Schefzik et al., Citation2013) réalisent un échantillonnage dans les lois de probabilité univariées et reconstruisent des scénarios en copiant les structures spatio-temporelles d’un modèle (modèle constitué par les prévisions d’ensemble avant post-traitement dans le cas de l’ECC).

L’exigence de fiabilité des prévisions probabilistes considérées en entrée du processus d’optimisation stochastique impose donc un post-traitement en deux étapes : une correction de fiabilité puis une reconstruction de la structure spatio-temporelle. Lors de cette seconde étape, on revient à la question de savoir jusqu’où il est nécessaire d’aller : tous les paramètres sont-ils nécessairement liés entre eux ? Autant il est sûr que les débits de deux affluents voisins ne sont pas indépendants l’un de l’autre, autant la question peut se poser entre le prix de l’électricité et le débit d’un affluent. Si dépendance il y a, celle-ci risque d’être ténue : est-il indispensable de reconstruire aussi cette relation ou est-il légitime de considérer ces paramètres comme indépendants, auquel cas il faut logiquement considérer dès le début des scénarios indépendants (voir §2.2) ?

3. Quelle méthode d’optimisation stochastique adopter ?

L’outil POMMIER actuellement utilisé en opérationnel à CNR doit être adapté pour être en mesure d’exploiter des scénarios au lieu de simples prévisions déterministes. Néanmoins, le passage du cadre déterministe au cadre stochastique n’est pas sans difficultés. Nous présentons dans cette section les principaux impératifs opérationnels auxquels nous devons faire face, avant de présenter deux méthodes d’optimisation stochastique que nous explorons actuellement.

3.1. Les impératifs opérationnels

3.1.1. Le besoin d’une solution unique

Malgré un cadre stochastique, l’optimiseur doit renvoyer une unique solution à la fois optimale (qui maximise le chiffre d’affaires) et applicable (qui respecte les contraintes physiques et d’exploitation). Or, certaines de ces contraintes dépendent des scénarios considérés. Par exemple, les apports en eau interviennent ainsi dans l’écriture des équations de respect de bilan d’eau aux aménagements hydro-électriques tandis que les productions intermittentes (éoliennes et photovoltaïques) interviennent dans le calcul de la puissance totale et par conséquent dans les contraintes associées aux écarts de production. L’unique programme de production renvoyé par l’optimiseur doit donc respecter les contraintes pour au moins un scénario (appelé dans la suite scénario cible). Le besoin d’une solution unique est contraignant car il exclut d’office certaines méthodes d’optimisation, notamment les méthodes type Monte-Carlo.

Dans un univers déterministe, le scénario cible correspond au seul scénario déterministe à disposition. En revanche, dans un cadre stochastique où l’on dispose d’un ensemble de scénarios possibles qui viennent s’additionner au scénario déterministe, le choix du scénario cible pose question. On peut ainsi envisager, en amont de l’optimisation, trois possibilités :

  1. choisir le scénario déterministe,

  2. choisir un des scénarios probabilistes,

  3. construire un nouveau scénario.

Avec la première méthode, la solution renvoyée par l’optimiseur déterministe et celle renvoyée par l’optimiseur stochastique sont compatibles dans le sens où elles respectent toutes les deux les contraintes pour le scénario déterministe. La deuxième méthode permet de ne pas se restreindre à la prévision déterministe, mais le choix du scénario cible n’est pas évident pour autant. Pour garder une optimisation globalement neutre face aux risques, il semble plus pertinent de choisir un scénario proche du scénario moyen (défini par la moyenne des prévisions d’ensemble) plutôt qu’un scénario extrême. Cela peut se faire par exemple en sélectionnant le scénario le plus proche du scénario moyen grâce à une distance donnée ou encore celui qui permet de mieux représenter la distribution initiale (obtenu par exemple par une itération de l’algorithme de sélection de scénarios par distance de Kantorovich (Growe-Kuska et al., Citation2003 ; Heitsch & Römisch, Citation2003). La troisième méthode n’utilise ni le scénario déterministe, ni un des scénarios probabilistes, mais le scénario moyen, toujours pour rester neutre face aux risques. Néanmoins, le scénario moyen peut être trop « lisse » et ne pas correspondre à un scénario physiquement possible.

3.1.2. Un temps de calcul contraint

L’optimiseur a la vocation d’être un outil d’aide à la décision pour libérer du temps d’expertise en opérationnel lors de la planification et de la construction du programme de production. Afin d’être compatible avec les délais opérationnels, l’optimiseur doit renvoyer une solution optimale en moins d’une heure. En pratique, cet objectif est difficile à atteindre, même en univers déterministe. Le temps de calcul de l’optimiseur déterministe est très variable selon la situation définie par l’instant où l’optimisation est effectuée (conditions initiales, paramètres d’entrée etc.). Dans certaines situations complexes, il n’est pas certain que l’optimiseur renvoie une solution au bout d’une heure, et encore moins une solution vraiment optimale en chiffre d’affaires. Par ailleurs, il est difficile de caractériser ces situations complexes, donc il est difficile d’estimer ex ante le temps de calcul nécessaire à l’obtention d’une solution optimale pour une situation donnée. C’est pourquoi les opérateurs construisent encore manuellement le programme de production le temps que l’optimiseur déterministe fournisse (ou non) une solution optimale. Des travaux sont toujours en cours sur le modèle déterministe, notamment pour améliorer les temps de calcul.

Néanmoins, le passage du cadre déterministe au cadre probabiliste complexifie a priori l’optimiseur, au risque de faire exploser les temps de calcul. Il faut donc être vigilant sur le choix des méthodes d’optimisation probabiliste.

3.1.3. Deux méthodes d’optimisation actuellement explorées

La littérature en lien avec l’optimisation stochastique pour la gestion d’actifs de production d’électricité est assez riche. On peut citer par exemple les états de l’art généraux de Ackooij et al. (Citation2018), Labadie (Citation2004), Osorio et al. (Citation2013) et Tahanan et al. (Citation2015). Néanmoins, à notre connaissance, la résolution en univers probabiliste d’un problème d’optimisation mixte de grande dimension avec les impératifs opérationnels des §3.1.1 et §3.1.2 est peu présente dans la littérature.

Deux stratégies d’optimisation sont actuellement explorées à CNR : l’optimisation robuste (voir §3.2) et l’optimisation en deux niveaux (voir §3.3). La différence entre les deux réside principalement dans la manière dont les incertitudes sont utilisées dans la prise de décision en univers probabiliste (King & Wallace, Citation2012). L’optimisation robuste prend en compte les incertitudes dans les contraintes pour renvoyer une solution applicable avec le plus grand nombre de scénarios sans considérer de possibilités ultérieures d’adaptations de la solution. L’optimisation en deux niveaux fait quant à elle intervenir les incertitudes dans le calcul du chiffre d’affaires pour renvoyer une solution anticipant la flexibilité permise par les ré-optimisations qui actualisent la solution à mesure que les incertitudes se dévoilent. La réalité opérationnelle est, bien entendu, un mélange de ces deux approches complémentaires:

  • le programme de production est utilisé pour définir des ventes sur les marchés day-ahead et intraday, donc il doit être suffisamment robuste face aux incertitudes pour pouvoir assurer les engagements de ventes,

  • le programme de production est actualisé plusieurs fois par jour avec des nouvelles prévisions, donc il doit suffisamment anticiper la flexibilité permise par les ré-optimisations.

3.2. L’optimisation robuste

L’optimisation robuste permet de renvoyer une solution optimale qui a la capacité de résister aux incertitudes intervenant dans les contraintes. Elle ne s’applique pas pour les incertitudes qui interviennent seulement dans la fonction objectif comme celles concernant les prix. L’optimisation robuste est principalement utilisée lorsque les décisions basées sur la solution obtenue ne peuvent que difficilement être modifiées par la suite (King & Wallace, Citation2012). Le cas extrême est de rechercher une solution qui respecte l’ensemble des contraintes quel que soit le scénario considéré. Une version plus souple, par chance constraints, renvoie une solution qui respecte les contraintes avec une probabilité supérieure à un seuil arbitraire donné. Plus la probabilité seuil est élevée, plus la solution renvoyée est robuste face aux incertitudes.

L’optimisation robuste par chance constraints est étudiée dans notre cas pour la prise en compte des incertitudes sur les apports. Cette méthode revient à réduire intelligemment l’amplitude des volumes de stockage des différents biefs hydrauliques exploités en prévisionnel afin de garder suffisamment de marge pour se prémunir contre le risque de non-respect des contraintes lié aux incertitudes sur les apports. Pour simplifier l’implémentation, des chance constraints dites simples (Ben-Tal et al.,Citation2009), i.e. reposant sur des lois normales univariées, ont été calculées à partir de la prévision d’ensemble des apports. La probabilité seuil est la même pour chaque loi normale univariée. Comme le volume de stockage des aménagements est très limité et que les incertitudes sur les apports ne sont pas négligeables, une probabilité seuil trop élevée peut conduire à des solutions, si elles existent, gardant beaucoup de marges et donc peu optimales en termes de chiffre d’affaires. À l’inverse, plus la probabilité seuil est petite, plus les chances constraints occultent totalement les scénarios pour lesquels la solution ne respecte pas toutes les contraintes, ce qui laisse plus de latitude pour optimiser le chiffre d’affaires. Le choix arbitraire de la probabilité seuil pose donc question. Comment faire le compromis entre la robustesse et l’optimalité de la solution ? La réponse à cette question est propre à chaque problème considéré et dépend de l’appétence au risque de l’utilisateur.

Les chances constraints simples ont le grand avantage de peu impacter les temps de calcul (a priori), ainsi que d’être faciles à mettre en œuvre et à interpréter physiquement. Leur principal désavantage est de déformer les lois des incertitudes sur les apports, qui ne sont généralement pas des lois normales indépendantes par nature. En particulier, la cohérence spatio-temporelle des prévisions d’apports (et plus généralement la notion de scénarios) est perdue alors qu’elle semble indispensable dans la définition du programme de production (voir §2.2). Néanmoins, la littérature montre que cette simplification reste généralement intéressante pour faire le compromis entre la facilité de mise en œuvre et la robustesse (Mesfin & Shuhaimi, Citation2010 ; Wu et al., Citation2014). Ce résultat reste toutefois à confirmer pour notre problème spécifique.

En pratique, la définition du programme de production optimal à un instant donné n’a pas forcément à être robuste (i.e. applicable à de nombreux scénarios) puisqu’il est corrigé et ré-optimisé plusieurs fois par jour en fonction des apports observés et des nouvelles prévisions à disposition. Ainsi, quels sont les avantages à utiliser une solution robuste dans ce cas-là ? Au-delà de la solution proposée, il pourrait ainsi être intéressant de remplacer les bornes conservatives des opérateurs par des bornes calculées sur base des prévisions. Une étude approfondie doit être réalisée pour répondre à cette question (voir section 4). Enfin, comme toute méthode d’optimisation en univers probabiliste, il est important de vérifier des critères de stabilité. Si l’on perturbe légèrement la distribution de la prévision d’ensemble (e.g. si l’on retire un scénario), quels sont les impacts sur la solution optimale ? Comme les chances constraints simples utilisent uniquement les deux premiers moments des lois marginales de la prévision d’ensemble, la stabilité devrait être assez bonne, mais encore une fois, une étude plus approfondie est nécessaire pour valider ce présupposé.

3.3. L’optimisation en deux niveaux avec métamodèle

L’optimisation stochastique en deux niveaux permet de modéliser le lien entre les décisions prises avant la réalisation des paramètres incertains (premier niveau) et celles prises après la réalisation des paramètres incertains (second niveau, appelé le recours), lesquelles dépendent des décisions du premier niveau (King & Wallace, Citation2012 ; Shapiro et al., Citation2014). Cette méthode repose principalement sur la combinaison des variables d’entrée incertaines en scénarios, idéalement en tenant compte de leurs corrélations (voir section 2.2).

L’objectif de l’optimisation stochastique en deux niveaux est de faire un compromis entre le chiffre d’affaires imminent associé au premier niveau et ceux, associés au recours, générés par les futures adaptations possibles de la solution du premier niveau face aux incertitudes. Dans notre cas, appliqué en fin de matinée (vers 11 h), le premier niveau correspond à la vente du programme de production sur le marché day-ahead tandis que le recours correspond aux ventes potentielles aux marchés intraday lors des ré-optimisations ultérieures. Comparée à l’optimisation déterministe, l’optimisation stochastique en deux niveaux revient à modifier le calcul du chiffre d’affaires pour tenir compte des opportunités financières et des risques que l’on anticipe grâce aux différents scénarios.

Pris individuellement, le recours revient à résoudre le problème d’optimisation de l’outil POMMIER déterministe en utilisant un scénario probabiliste au lieu du scénario déterministe et en fixant les ventes day-ahead du lendemain à celles proposées par le premier niveau. Le problème d’optimisation stochastique en deux niveaux consiste alors à maximiser la somme du chiffre d’affaires du premier niveau et la moyenne (portée sur les scénarios) des chiffres d’affaires supplémentaires (lequel peut être négatif) calculés grâce au recours. Il s’agit ainsi de résoudre deux problèmes d’optimisation imbriqués, lesquels adoptent tous deux une formulation mixte, i.e. faisant appel à des variables de décision continues et entières.

De manière analogue au Multistage Stochastic Programming, la méthode que nous proposons s’appuie sur un arbre de scénarios à deux niveaux. Le premier niveau fait intervenir le scénario cible pour définir le programme de production, l’hypothèse de non-anticipativité étant portée sur les prochaines ventes du programme de production sur le marché day-ahead (valables quel que soit le scénario). Le second niveau fait intervenir tous les scénarios probabilistes, sans transition possible, pour anticiper toutes les futures ré-optimisations possibles compte-tenu des prochaines ventes day-ahead obtenues au premier niveau. La dynamique entre les deux niveaux, donnée par les prochaines ventes sur le marché day-ahead, rejoint aussi l’idée fondamentale du Stochastic Dynamic Programming dans la dépendance du second niveau aux variables de décision du premier niveau. L’écriture des contraintes des problèmes d’optimisation des deux niveaux diffère seulement par le choix du scénario et par le fait que les ventes day-ahead du lendemain sont fixées dans le second niveau.

L’optimisation stochastique en deux niveaux a l’avantage de se rapprocher du processus opérationnel car elle permet de tenir compte, dans le calcul du chiffre d’affaires, des opportunités liées aux ré-optimisations possibles du programme de production au fur et à mesure que les scénarios incertains convergent vers la réalisation effective. Par ailleurs, cette méthode est bien adaptée à la modélisation des incertitudes par des prévisions d’ensemble. En revanche, la présence du recours fait exploser le temps de calcul et la mémoire allouée pour la résolution numérique du modèle, ce qui la rend en l’état incompatible avec une utilisation opérationnelle. Une solution de contournement peut alors être de construire une méthodologie qui approxime le recours. Dans la littérature, des algorithmes par décomposition sont souvent utilisés mais ils sont peu efficaces lorsque les deux niveaux sont mixtes et de grande dimension comme pour notre problème (Ahmed, Citation2010 ; Kall & Mayer, Citation2011).

Dans le cas de l’adaptation de POMMIER en univers stochastique, nous avons exploré une solution qui consiste à approcher le recours par un métamodèle, i.e. un modèle statistique qui reproduit au mieux les résultats du modèle originel mais avec un temps de calcul négligeable. Le but est d’éviter l’explosion de la dimension du problème d’optimisation en deux niveaux pour qu’il puisse être résolu numériquement dans les délais opérationnels. Pour rester compatible avec une formulation mixte, le métamodèle doit être linéaire par morceaux. Le recours peut donc être approché en effectuant une régression linéaire par morceaux. Cette restriction dans le choix du métamodèle n’est pas limitante car, sous certaines hypothèses, le recours est effectivement une fonction linéaire par morceaux (Haneveld et al., Citation2019). En revanche, pour faciliter la recherche d’une solution, l’idéal est que le métamodèle ait, comme pour tout problème d’optimisation, une propriété de convexité, que le recours ne vérifie pas a priori. Cette difficulté pourrait cependant être contournée ultérieurement à l’aide d’une procédure de convexification.

Mais la principale difficulté est ailleurs : la définition du recours (et des scénarios) change à chaque nouveau paramétrage utilisateur et à chaque nouvelle situation, ce qui entrave fortement le calage d’un métamodèle global. Il nous a donc semblé plus pertinent de nous orienter vers une approche situationnelle en effectuant le calage d’un métamodèle à chaque nouvelle situation. La mise en œuvre repose sur une méthodologie par approximations successives qui consiste à enrichir le métamodèle itérativement, dans le même esprit que les algorithmes par décomposition. Néanmoins, tout comme les algorithmes par décomposition, il est difficile d’estimer le nombre d’itérations nécessaires pour avoir une approximation suffisamment précise du recours. Comme le temps de calcul d’une itération n’est pas négligeable (principalement du fait du calage du métamodèle), un nombre d’itérations trop important rendrait les temps de calcul incompatibles avec l’opérationnel. La définition d’une telle méthodologie est encore en réflexion.

Dans la définition de l’optimisation en deux niveaux, le recours est évalué pour tous les scénarios. Pour chacun, il anticipe la ré-optimisation du programme de production sous l’hypothèse que le scénario considéré se réalise effectivement : on considère ainsi que ce scénario est une prévision parfaite du futur. Il s’agit d’une simplification car en pratique le programme de production est actualisé avec de nouvelles prévisions toujours incertaines, sans attendre la réalisation complète des paramètres. Ainsi, quels sont les impacts de cette simplification ? Une étude approfondie doit être réalisée pour répondre à cette question (voir section 4), ainsi que pour valider la stabilité des solutions proposées, comme pour le cas de l’optimisation robuste.

4. Comment valider les performances de l’optimisation stochastique ?

Les versions déterministe et stochastique de l’outil POMMIER fournissent chacune, pour une situation donnée, un programme de production optimal au sens de leur propre paradigme d’optimisation. Pour comparer les plus-values de ces deux approches, il convient de définir un protocole de validation. L’objectif est de déterminer laquelle est globalement la plus performante ou d’identifier les situations les plus adaptées à chacune des stratégies de résolution afin d’être en mesure de sélectionner a priori celle qui convient le mieux à une nouvelle situation donnée.

4.1. Validation à petite échelle sur un cas d’étude

Dans un premier temps, la comparaison peut être effectuée à petite échelle sur un unique cas d’étude, i.e. une situation réelle issue de l’opérationnel. On applique alors chaque méthode d’optimisation à un même cas d’étude donné. La question qui se pose est la suivante : quels indicateurs choisir pour comparer des solutions pour un même cas d’étude ?

Pour rappel, les contraintes de l’outil POMMIER sont basées sur une version simplifiée du modèle physique du Rhône (voir §1.2). Un modèle de simulation est alors appliqué aux programmes de production obtenus par l’outil POMMIER pour tester leur comportement face au modèle physique plus réaliste (notamment avec les lois de puissance non linéarisées) et avec le scénario cible expertisé (tel que défini au §3.1.1). Il convient de noter que, en pratique, les programmes de production obtenus par l’outil POMMIER sont retouchés par expertise pour les rendre plus robustes en simulation. En effet, l’expérience a permis de définir des marges et des règles limitant le risque de non-respect de certaines contraintes d’exploitation, règles qu’il n’est pas toujours possible de modéliser mathématiquement sous la forme d’une contrainte pour l’optimiseur POMMIER.

Un premier indicateur de validation à petite échelle est le temps de calcul de chaque méthode d’optimisation et de la simulation (avec retouche de la solution). On rappelle que dans le processus opérationnel CNR, la méthode d’optimisation est utilisable si le temps de calcul n’excède pas 1 heure (voir §3.1.2). Cet indicateur permet donc de valider l’applicabilité d’une méthode vis-à-vis des impératifs opérationnels, mais ne permet pas de conclure sur la supériorité d’une solution par rapport à une autre. Un autre indicateur d’admissibilité pourrait porter sur le respect des contraintes. Cependant, un tel indicateur nous semble délicat à définir, les contraintes de l’outil POMMIER étant définies de telle manière que l’on ne puisse pas sélectionner une solution admissible qui respecte mieux les contraintes que les autres. Autrement dit, le respect des contraintes de l’outil POMMIER est binaire : une solution respecte ou non toutes les contraintes, mais il n’y a pas d’entre-deux permettant de classer les solutions entre elles. Malgré tout, comme les solutions des méthodes d’optimisation ne sont pas forcément admissibles avec tous les scénarios (voir §3.1.1), il est possible de définir un indicateur de respect des contraintes (i.e. de robustesse, voir §3.2), en calculant le nombre de scénarios probabilistes pour lesquels la solution respecte toutes les contraintes.

Un deuxième indicateur de validation à petite échelle est le chiffre d’affaires cible associé à la solution optimale et recalculé par la simulation sur le scénario cible. On s’intéresse au chiffre d’affaires (donc à l’optimalité) car il s’agit d’un indicateur scalaire facile à calculer, à comparer et à interpréter. Selon cet indicateur, la méthode d’optimisation la plus performante pour le cas d’étude est celle dont le chiffre d’affaires cible est le plus élevé.

Le chiffre d’affaires cible est une prévision déterministe définie à l’instant présent du cas d’étude. À l’aide des scénarios probabilistes, il est aussi possible de confronter les solutions de chaque méthode d’optimisation à chacun des scénarios probabilistes pris indépendamment. Néanmoins, la simulation ne peut pas être utilisée avec tous les scénarios probabilistes car les solutions des méthodes d’optimisation ne sont pas forcément applicables avec tous les scénarios (voir §3.1.1), ce qui demanderait de passer beaucoup de temps pour la retouche par expertise des programmes de production. Il faut donc définir un algorithme qui soit capable, pour chaque scénario, d’adapter automatiquement la solution et de renvoyer le chiffre d’affaires associé, appelé le chiffre d’affaires simulé. Deux approches extrêmes ont été imaginées et implémentées, la réalité opérationnelle se situant comme toujours entre les deux :

  • La première approche consiste à considérer que l’on n’arrivera pas à anticiper les écarts sur les apports d’eau et les productions intermittentes. Les évolutions du scénario réel sont complétement subies, sans possibilité de prévision. Les modifications apportées au programme de production correspondent alors à une correction en temps réel : lorsque la cote de la retenue atteint une limite supérieure ou inférieure, les débits aux usines et barrages sont modifiés de façon à assurer un strict respect des contraintes d’exploitation. Cette stratégie peut générer des écarts de production importants et donc des pénalités importantes.

  • La seconde approche consiste à considérer que l’évolution du scénario effectif peut être entièrement anticipée au moment de la simulation : on se place ainsi dans un contexte de prévision parfaite. Il est alors possible de gérer au mieux les débits sur tout l’horizon du cas d’étude en positionnant les écarts de production nécessaire à l’adaptation du programme sur les moments où les pénalités d’écart sont les plus faibles. Autrement dit, cette approche effectue la ré-optimisation des solutions compte-tenu des engagements day-ahead déjà pris à partir des scénarios probabilistes considérés. Cela revient à appliquer la fonction recours du §3.3 à chaque solution des méthodes d’optimisation et avec le scénario probabiliste considéré.

Appliquée à une solution en considérant successivement les différents scénarios possibles, chacune de ces deux approches permet de définir une distribution statistique des chiffres d’affaires simulés de la solution pour le cas d’étude. À partir de cette distribution, d’autres indicateurs à petite échelle peuvent être définis, comme par exemple la moyenne ou l’écart-type de la distribution statistique. La méthode d’optimisation la plus performante est celle dont le chiffre d’affaires simulé moyen est le plus élevé tandis que la moins « risquée » est celle dont l’écart-type est le plus faible.

Lorsque le cas d’étude correspond à une situation passée, il est aussi possible d’appliquer une de ces deux approches pour confronter les solutions optimales proposées au scénario observé, i.e. aux valeurs observées a posteriori des apports d’eau, des prix de l’électricité et des productions intermittentes. On définit alors un quatrième indicateur : le chiffre d’affaires rejoué. La méthode d’optimisation la plus performante est celle dont le chiffre d’affaire rejoué est le plus élevé.

Enfin, il est important que le chiffre d’affaires prévu soit proche de celui effectivement réalisé en pratique : si l’optimiseur faisait miroiter des gains mirifiques qui ne se réalisent jamais, alors il serait totalement inutile. Or, la distribution statistique des chiffres d’affaires simulés peut être vue comme une prévision probabiliste et le chiffre d’affaires rejoué peut être vu comme l’observation a posteriori. Avec cette vision, il est possible de faire une comparaison entre le chiffre d’affaires rejoué et la distribution statistique des chiffres d’affaires simulés. Pour cela, les scores de qualité classiquement utilisés dans le cadre des prévisions probabilistes peuvent servir d’indicateur de validation à petite échelle. On peut citer, par exemple, le CRPS (Continuous Ranked Probability Score ; Gneiting & Raftery, Citation2007 ; Hersbach, Citation2000 ; Matheson & Winkler, Citation1976). De manière analogue, le chiffre d’affaires cible, vu comme une prévision déterministe, peut être comparé avec le chiffre d’affaires rejoué à l’aide du MAE (Mean Absolute Error).

4.2. Validation à grande échelle sur plusieurs cas d’études

Pour avoir une idée précise des comparaisons entre les différentes méthodes d’optimisation, la validation à petite échelle n’est pas suffisante à cause du caractère probabiliste des prévisions et de la diversité des situations. Il est nécessaire en pratique d’évaluer les indicateurs à petite échelle (voir §4) sur un grand nombre de cas d’études couvrant toute la diversité des situations et des scénarios observés. Pour chacun des indicateurs à petite échelle, on obtient alors leur distribution statistique à grande échelle.

La distribution statistique à grande échelle des temps de calcul (premier indicateur) permet de facilement comparer les méthodes d’optimisation par leur temps de calcul moyen (moyenne à grande échelle). Plus généralement, cette distribution permet d’avoir un aperçu général de la variabilité des temps de calcul et d’identifier les éventuelles situations complexes pour lesquelles les temps de calcul sont trop importants. Par analyse de sensibilité, on pourrait alors identifier, pour chaque méthode d’optimisation, les facteurs qui impactent le plus les temps de calcul, permettant une estimation du temps de calcul pour une nouvelle situation donnée.

Les moyennes des distributions statistiques à grande échelle des autres indicateurs permettent de comparer les méthodes d’optimisation en termes de chiffre d’affaires. En particulier, le CRPS moyen (moyenne à grande échelle) permet de mesurer l’impact sur le chiffre d’affaires de la fiabilité et de la finesse des prévisions probabilistes des scénarios (voir §2.3). De même que pour les temps de calcul, les distributions statistiques à grande échelle peuvent être utilisées pour essayer d’identifier les situations les plus favorables à chacune des méthodes d’optimisation.

4.3. Validation à grande échelle sur un horizon roulant

Le calcul des chiffres d’affaires simulés pour la validation sur plusieurs cas d’étude repose sur deux approches extrêmes de simulation (voir §4). Or, le processus opérationnel est en réalité entre les deux car il n’est ni omniscient (les prévisions ne sont pas parfaites) ni complètement aveugle (les écarts ne sont pas entièrement subis). Il semble donc important de définir un nouvel indicateur de chiffre d’affaires à grande échelle qui soit plus proche de la réalité opérationnelle que ne le sont ceux associés aux chiffres d’affaires cibles ou simulés.

Par ailleurs, les cas d’études utilisés pour la validation à grande échelle du §4.2 sont définis avec des conditions initiales imposées par le programme de production effectivement réalisé jusqu’alors. Or, ce programme effectivement réalisé est lui-même le résultat d’une optimisation effectuée en opérationnel, par éclusées synchrones, avec parfois l’utilisation du prototype POMMIER déterministe (voir §1.2). La validation portant sur des cas d’études uniquement risque alors de limiter le champ d’expression de l’outil d’optimisation utilisé, lequel se voit imposer des conditions initiales qui ne correspondent pas forcément à celles qui seraient advenues si ce même outil avait été utilisé lors de l’optimisation précédente.

Pour pallier ces défauts, on peut mettre en place un protocole de validation à grande échelle sur un horizon roulant (rolling). Le principe est d’estimer le chiffre d’affaires effectif cumulé que l’on obtiendrait, sur une période passée de plusieurs mois, en utilisant toujours le même outil d’optimisation et en calquant le processus opérationnel confronté au scénario observé a posteriori sur l’ensemble de la période. En pratique, cette démarche consiste à effectuer itérativement toutes les optimisations en considérant les conditions initiales données par le résultat des itérations précédentes ainsi que les mises à jour successives des observations et des prévisions probabilistes. À chaque itération, l’optimisation est portée sur le même horizon de calcul que celui qui serait utilisé en opérationnel, i.e. celui allant jusqu’à la fin du surlendemain (voir §1.2). Cette démarche permet de construire itérativement un programme de production sur toute la période considérée puis de calculer le chiffre d’affaires effectif cumulé. Les outils d’optimisation peuvent alors être comparés à grande échelle : le plus performant est celui dont le chiffre d’affaires effectif cumulé est le plus élevé.

La mise en place d’une telle démarche n’est cependant pas triviale et une étude à ce sujet est en cours à CNR. Le processus opérationnel et l’expertise des opérateurs sont en effet très difficiles à approcher de manière automatique sans faire d’hypothèses simplificatrices, faussant ainsi l’estimation du chiffre d’affaires effectif cumulé. Comment trouver le bon niveau de simplifications tout en contrôlant l’impact qu’elles peuvent avoir sur l’estimation du chiffre d’affaires ?

De manière analogue, dans le cas où il est possible d’identifier la méthode d’optimisation la plus performante selon la situation, une validation à grande échelle sur un horizon roulant peut être effectuée en mélangeant les méthodes d’optimisation, i.e. en utilisant celle qui semble la plus pertinente pour la situation de chaque itération. L’objectif est alors de calculer la plus-value en chiffre d’affaires effectif cumulé que l’on obtiendrait avec cette démarche au lieu de celle utilisant une seule méthode d’optimisation.

5. Conclusions

La gestion opérationnelle conjointe d’une chaîne d’aménagements hydro-électriques et d’actifs de production intermittente permet de partager la flexibilité de la chaîne hydro-électrique entre le déplacement d’énergie et la compensation des écarts de production dus aux incertitudes de prévision des productions intermittentes. Reposant sur l’existence d’incertitudes, qu’elles soient météorologiques, hydrologiques ou encore économiques (prix de l’énergie), une telle gestion doit forcément adopter un point de vue stochastique. Nous faisons donc actuellement évoluer l’optimiseur déterministe, utilisé pour la gestion de la chaîne hydro-électrique CNR considérée indépendamment, en un optimiseur stochastique dédié à la gestion conjointe intégrant les productions intermittentes. Ce faisant, nous avons soulevé des interrogations méthodologiques que nous souhaitions partager dans cet article. Même si ces considérations s’appuient sur le processus opérationnel de CNR, elles n’en sont pas toutes spécifiques à ce processus et s’imposent à d’autres systèmes d’optimisation stochastique dans le domaine de l’énergie.

Nos réflexions se sont portées autour de trois points fondamentaux : la modélisation des incertitudes, la méthode d’optimisation en univers probabiliste et l’évaluation de la plus-value de l’optimiseur. On montre que la prévision probabiliste par une approche ensembliste est une approche naturelle pour respecter la cohérence spatio-temporelle, mais il est crucial d’être vigilant sur la qualité de la prévision d’ensemble, en particulier sur les critères de fiabilité et de finesse. On explore par ailleurs le principe général de deux méthodes d’optimisation en univers probabiliste : l’optimisation robuste et l’optimisation en deux niveaux avec métamodèle. La différence entre ces méthodes d’optimisation repose sur la manière dont on souhaite représenter le rôle des incertitudes dans la prise de décision, la réalité opérationnelle que nous imaginons se situant en fait entre les deux. Ces méthodes d’optimisation posent néanmoins des difficultés d’implémentation. Enfin, la validation de la méthodologie permet de quantifier la performance des méthodes d’optimisation en fonction des situations. Elle consiste à appliquer les méthodes d’optimisation sur plusieurs cas d’études et sur un horizon roulant. Les indicateurs qui nous semblent les plus importants sont ceux associés au temps de calcul et au chiffre d’affaires.

Il est difficile, à ce stade, d’illustrer les arguments avec des résultats quantitatifs. Pour cela, il est nécessaire d’approfondir nos études sur les trois points en parallèle. Les travaux en cours ne manquent pas de faire surgir de nouvelles difficultés et interrogations. Avec le développement du stockage d’électricité renouvelable (notamment avec l’hydrogène renouvelable) et d’actifs de flexibilité, l’optimiseur pourrait servir, plus largement, à optimiser la programmation de la chaîne d’aménagements du Rhône dans le cadre de la gestion conjointe de l’ensemble des actifs de production et de stockage de CNR. Par ailleurs, la richesse des prévisions probabilistes peut aussi servir à d’autres étapes du processus opérationnel, pouvant conduire à des modifications des pratiques opérationnelles. Par exemple, les prévisions probabilistes pourraient servir à optimiser la gestion des risques financiers associés aux ventes de la production sur les marchés de l’électricité, en quantifiant les risques de pénalités des écarts.

D éclaration

No potential conflict of interest was reported by the author(s).

Remerciements

Les auteurs tiennent à remercier Mélodie Mouffe, de ENGIE Impact, pour sa relecture experte et minutieuse qui a permis d’enrichir l’article et de lui apporter plus de rigueur.

Déclaration de divulgation

L’auteur ne déclare aucun intérêt concurrent.

Déclaration de disponibilité des données

Le partage de données ne s’applique pas à cet article car aucune nouvelle donnée n’a été créée ou analysée dans cette étude.

Références

  • Ackooij, W., Lopez, I. D., Frangioni, A., Lacalandra, F., & Tahanan, M. (2018). Large-scale unit commitment under uncertainty: An updated literature survey. Annals of Operations Research, 271(1), 1–13. https://doi.org/10.1007/s10479-018-3003-z
  • Ahmed, S. (2010). Two‐stage stochastic integer programming: A brief introduction. In J. J. Cochran, L. A. Cox, P. Keskinocak, J. P. Kharoufeh & J.C. Smith (Eds.), Wiley encyclopedia of operations research and management science. London.
  • Bauer, P., Thorpe, A., & Brunet, G. (2015). The quiet revolution of numerical weather prediction. Nature, 525(7567), 47–55. https://doi.org/10.1038/nature14956
  • Bellier, J., Bontron, G., & Zin, I. (2017). Using meteorological analogues for reordering postprocessed precipitation ensembles in hydrological forecasting. Water Resources Research, 53(12), 10085–10107. https://doi.org/10.1002/2017WR021245
  • Bellier, J., Zin, I., & Bontron, G. (2018). Generating coherent ensemble forecasts after hydrological postprocessing: Adaptation of ECC-based methods. Water Resources Research, 54(8), 5741–5762. https://doi.org/10.1029/2018WR022601
  • Ben-Tal, A., El Ghaoui, L., & Nemirovski, A. (2009). Robust optimization. Princeton university press.
  • Bompart, P., Bontron, G., Celie, S., & Haond, M. (2009). Une chaîne opérationnelle de prévision hydrométéorologique pour les besoins de la production hydroélectrique de la CNR. La Houille Blanche, 95(5), 54–60. https://doi.org/10.1051/lhb/2009056
  • Chang, G. W., Aganagic, M., Waight, J. G., Medina, J., Burton, T., Reeves, S., & Christoforidis, M. (2001). Experiences with mixed integer linear programming based approaches on short-term hydro scheduling. IEEE Transactions on Power Systems, 16(4), 743–749. https://doi.org/10.1109/59.962421
  • Corporation, G. D. (2020). GAMS documentation. https://www.gams.com
  • Gneiting, T., Raftery, A. E., Westveld Ill, A. H., & Goldman, T. (2005). Calibrated probabilistic forecasting using ensemble model output statistics and minimum CRPS estimation. Monthly Weather Review, 133(5), 1098–1118. https://doi.org/10.1175/MWR2904.1
  • Gneiting, T., Balabdoui, F., & Raftery, A. E. (2007). Probabilistic forecasts, calibration and sharpness. Journal of the Royal Statistical Society, 69B(2), 243–268. https://doi.org/10.1111/j.1467-9868.2007.00587.x
  • Gneiting, T., & Raftery, A. E. (2007). Strictly proper scoring rules, prediction, and estimation. Journal of the American Statistical Association, 102(477), 359–378. https://doi.org/10.1198/016214506000001437
  • Growe-Kuska, N., Heitsch, H., & Romisch, W. (2003). Scenario reduction and scenario tree construction for power management problems. In IEEE Bologna Power Tech Conference Proceedings (Vol. 3). IEEE (Institute of Electrical and Electronics Engineers), pp. 7. https://doi.org/10.1109/PTC.2003.1304379
  • Haneveld, W. K., Van der Vlerk, M. H., & Romeijnders, W. (2019). Stochastic programming: Modeling decision problems under uncertainty. Springer Nature.
  • Heitsch, H., & Römisch, W. (2003). Scenario reduction algorithms in stochastic programming. Computational Optimization and Applications, 24(2/3), 187–206. https://doi.org/10.1023/A:1021805924152
  • Hersbach, H. (2000). Decomposition of the continuous ranked probability score for ensemble prediction systems. Weather and Forecasting, 15(5), 559–570. https://doi.org/10.1175/1520-0434(2000)015<0559:DOTCRP>2.0.CO;2
  • IBM Studio, I. C. (2016). CPLEX user’s manual. https://www.ibm.com/docs/en/SSSA5P_12.8.0/ilog.odms.studio.help/pdf/usrcplex.pdf
  • Kall, P., & Mayer, J. (2011). Stochastic linear programming: Models, theory, and computation. Springer.
  • King, A. J., & Wallace, S. W. (2012). Modeling with stochastic programming. Springer Science & Business Media.
  • Labadie, J. W. (2004). Optimal operation of multireservoir systems: State-of-the-art review. Journal of Water Resources Planning and Management, 130(2), 93–111. https://doi.org/10.1061/(ASCE)0733-9496(2004)130:2(93)
  • Matheson, J. E., & Winkler, R. L. (1976). Scoring rules for continuous probability distributions. Management Science, 22(10), 1087–1096. https://doi.org/10.1287/mnsc.22.10.1087
  • Mesfin, G., & Shuhaimi, M. (2010). A probabilistic optimization approach for a gas processing plant under uncertain feed conditions and product requirements. International Journal of Chemical and Molecular Engineering, 4(2), 192–197. https://scholar.google.fr/citations?view_op=view_citation&hl=fr&user=5JswSQkAAAAJ&citation_for_view=5JswSQkAAAAJ:qjMakFHDy7sC
  • Osorio, G. J., Matias, J. C., & Catalao, J. P. (2013). A review of short-term hydro scheduling tools. In 48th International Universities’ Power Engineering Conference (UPEC). IEEE (Institute of Electrical and Electronics Engineers), (pp. 1–6). https://doi.org/10.1109/UPEC.2013.6714906
  • Piron, V., Bontron, G., & Pochat, M. (2015). Operating a hydropower cascade to optimize energy management. Hydropower & Dams, 22(5). Operating a hydropower cascade to optimize energy management | Hydropower & Dams International (hydropower-dams.com)
  • Raftery, A. E., Gneiting, T., Balabdaoui, F., & Polakowski, M. (2005). Using Bayesian model averaging to calibrate forecast ensembles. Monthly Weather Review, 133(5), 1155–1174. https://doi.org/10.1175/MWR2906.1
  • Schefzik, R., Thorarinsdottir, T. L., & Gneiting, T. (2013). Uncertainty quantification in complex simulation models using ensemble copula coupling. Statistical Sciences, 28(4), 616–640. https://doi.org/10.1214/13-STS443
  • Shapiro, A., Dentcheva, D., & Ruszczyński, A. (2014). Lectures on stochastic programming: Modeling and theory. Society for Industrial and Applied Mathematics.
  • Tahanan, M., van Ackooij, W., Frangioni, A., & Lacalandra, F. (2015). Large-scale unit commitment under uncertainty. 4OR: A Quarterly Journal of Operations Research, 2(13), 115–171. https://doi.org/10.1007/s10288-014-0279-y
  • Wu, H., Shahidehpour, M., Li, Z., & Tian, W. (2014). Chance-constrained day-ahead scheduling in stochastic power system operation. IEEE Transactions on Power Systems, 29(4), 1583–1591. https://doi.org/10.1109/TPWRS.2013.2296438