Aller au contenu

Utilisateur:Bouliech/Analyse de sensibilité

Une page de Wikipédia, l'encyclopédie libre.

L'analyse de sensibilité est l'étude de la façon dont l'incertitude de la sortie d'un code ou d'un système (numérique ou autre) peut être attribuée à l'incertitude dans ses entrées[1][2]. Une pratique est l'analyse de l'incertitude, qui met davantage l'accent sur la quantification de l'incertitude et de la propagation de l'incertitude; idéalement, l'incertitude et l'analyse de sensibilité vont de paire.

L'analyse de sensibilité peut être utile pour beaucoup d'applications[3]:

  • Tester la robustesse d'un modèle ou d'un système en présence d'incertitude.
  • Une meilleure compréhension des relations entre l'entrée et la sortie des variables dans un système ou d'un modèle.
  • La réduction d'incertitude, à travers l'identification des entrées du modèle qui causent une incertitude importante dans la production et devrait donc être le centre de l'attention.
  • La recherche d'erreurs dans le modèle (par la rencontre inattendue des relations entre les entrées et les sorties).
  • La simplification du modèle, en fixant les entrées n'ont pas d'effet sur la sortie, ou en identifiant et en supprimant les parties redondantes de la structure du modèle.
  • L'amélioration de la communication entre modélisateurs et décideurs (par exemple en formulant des recommandations plus crédible, compréhensible, irrésistible ou de persuasion).
  • Trouver des régions dans l'espace des entrées pour lesquelles la sortie du modèle est maximale ou minimale, ou répond à un certain critère d'optimalité (voir optimisation et méthode de Monte Carlo).
  • Pour la calibration des modèles avec un grand nombre de paramètres, une analyse de sensibilité peut faciliter le réglage des paramètres en se concentrant sur les paramètres sensibles. Sans connaitre la sensibilité des paramètres, beaucoup de temps et d'effort peuvent être gaspillés pour régler des paramètre peu sensibles.[4]
  • Chercher à identifier les liens importants entre les observations, les entrées du modèle, et des prédictions ou des prévisions, conduisant à l'élaboration de meilleurs modèles.[5][6]

Méthodologies[modifier | modifier le code]

Il existe un grand nombre d'approches pour faire une analyse de sensibilité, dont beaucoup ont été développées pour répondre à un ou plusieurs des contraintes discutées ci-dessus. Elles se distinguent également par le type de mesure de sensibilité (décomposition de variance, dérivées partielles, effets élémentaires...). En général, on retrouve le plan suivant dans la plupart des procédures:

  1. Quantifier l'incertitude dans chaque entrée (plages de valeurs possibles, distributions de probabilité). Cela peut être un problème en soi car beaucoup de méthodes existent pour obtenir l'incertitude des distributions de données subjectives.[7]
  2. Identifier la(les) sortie(s) du modèle qui vont être analysées (la cible d'intérêt devrait idéalement avoir une relation directe avec le problème abordé par le modèle). La seule rationalisation imposée par cette tache est un des bénéfices de l'analyse de sensibilité.
  3. Exécutez le modèle un certain nombre de fois en suivant unplan d'expériences[8] (différent suivant l'approche choisie et l'incertitude des entrées).
  4. Calculer la mesure de sensibilité choisie pour le problème.

Dans certains cas, cette procédure sera répétée, par exemple en haute-dimensions des problèmes où l'utilisateur doit d'abord trier les variables sans importance ("screening") avant d'effectuer une analyse de sensibilité complète.

Les différentes méthodologies (voir ci-dessous) se distinguent par les mesures de sensibilité qui sont calculés. Ces méthodologies se chevauchent parfois et d'autres mesures de sensibilité, adaptées contraintes du problème, peuvent être testées.

One-At-a-Time (OAT)[modifier | modifier le code]

Le moyen le plus simple et le plus commun d'étudier la sensibilité des entrées et de les modifier une par une ("One-At-a-Time" : OAT), les autres restant fixées à une valeur nominale. On voit alors l'effet que cela produit sur la sortie[9][10][11]. La méthode OAT  implique habituellement de

  • Déplacer une variable d'entrée, laissant les autres à une valeur de référence (nominale), puis,
  • Remettre la variable d'entrée à sa valeur nominale, puis à répéter pour chacun des autres entrées de la même manière.

La sensibilité peut ensuite être mesurée par la surveillance des changements dans la sortie, par exemple, par les dérivées partielles ou de régression linéaire. Cela semble logique que tout changement observé dans la sortie peut être attribué sans ambiguïté à la seule variable changé. En outre, en modifiant une variable à la fois, on peut garder toutes les autres variables fixes à leur centrale ou de valeurs de référence. Cela accroît la comparabilité des résultats (tous les "effets" sont calculés en référence au même point "central" dans l'espace des entrées). La méthode OAT est souvent préféré par les modélisateurs pour des raisons pratiques. Lorque le modèle plante lors d'une analyse OAT, le modélisateur sait immédiatement qui est le paramètre responsable de l'échec.

Cependant, malgré sa simplicité, cette approche ne permet pas d'explorer totalement l'espace des entrées. En effet, elle ne tient pas compte de la variation simultanée de variables d'entrée. Cela signifie que la méthode OAT ne peut pas détecter la présence d'interactions entre les variables d'entrée[12]. De plus, le choix de la valeur nominale et de l'échantillonnage peuvent poser problème. Par exemple, sur le modèle Y= sin(X_1)cos(X_2) avec la valeur nominale (0,0), l'influence de X_2 sera invisible par une méthode OAT.

Méthodes locales[modifier | modifier le code]

Les méthodes locales impliquent de prendre la dérivée partielle de la sortie Y par rapport à une entrée Xi:

,

où l'indice X0 indique que la dérivée est pris à un point fixe dans l'espace des entrées (d'où l'adjectif "local"). Modélisation adjointe[13][14] et Différenciation automatisée[15] sont les méthodes de ce type. Semblable à OAT, les méthodes locales n'essaye pas d'explorer l'espace des entrées. Elles examinent seulement les petites perturbations, généralement une variable à la fois.

Les nuages de points[modifier | modifier le code]

Un outil simple mais utile est de tracer des nuages de points de la variable de sortie en fonction de variables d'entrée, après que le modèle ait été évalué sur un échantillon aléatoire (respectant les distributions des entrées). L'avantage de cette approche est qu'elle s'applique aussi à des données. Elle donne aussi une indication visuelle directe de la sensibilité.

L'analyse par régression[modifier | modifier le code]

L'analyse par régression, dans le contexte de l'analyse de sensibilité, consiste à utiliser les coefficients de régression standardisés comme des mesures directes de la sensibilité. La régression doit être linéaire par rapport aux données. Sinon il est difficile d'interpréter les coefficients standardisés. Cette méthode est donc plus appropriée lorsque le modèle de réponse est en fait linéaire; la linéarité peut être confirmé, par exemple, si le coefficient de détermination est grande. Les avantages de l'analyse par régression sont qu'elle est simple et a un faible coût de calcul.

Décomposition de variance[modifier | modifier le code]

Les méthodes basées sur la décomposition de variance[16][17][18] considèrent les entrées comme des variable aléatoires et s'intéressent seulement à la variance de la sortie. Celle-ci est décomposée en termes attribuable à une entrée ou à un groupe d'entrées. La sensibilité de la sortie d'une variable d'entrée est donc mesurée par la somme de la variance de la production causée par une entrée. Ceux-ci peuvent être exprimées sous forme d'attentes, c'est à dire en considérant un modèle Y=f(X) pour X={X1, X2, ... Xk}, une mesure de la sensibilité de la ième variable Xi est donné comme,

où "Var" et "E" désignent la variance et de la valeur attendue des opérateurs respectivement, et X~i désigne l'ensemble de toutes les variables d'entrée à l'exception de Xi. Ce terme mesure la contribution de Xi seul. Il est connu comme l'indice de Sobol simple de premier ordre. Surtout, il ne permet pas de mesurer l'incertitude causée par les interactions avec les autres variables. Une autre mesure, connu comme l'indice de Sobol total de premier ordre, donne la variance totale de Y causée par Xi et de ses interactions avec les autres variables d'entrée. Les deux quantités sont généralement normalisées en les divisant par Var(Y).

Les méthodes basées sur la décomposition de variance permettent d'explorer complètement l'espace des entrées et de prendre en compte les interactions ainsi que les réponses non linéaires. Pour ces raisons, elles sont largement utilisées. Le calcul des indices de Sobol nécessite de nombreuses évaluations du modèle (de l'ordre du millier). On recourt généralement à des méta-modèles (émulateurs) pour rendre possible le calcul.


Références[modifier | modifier le code]

  1. A. Saltelli, « Sensitivity Analysis for Importance Assessment », Risk Analysis, vol. 22, no 3,‎ , p. 1–12
  2. A. Saltelli, M. Ratto, T. Andres et F. Campolongo, Global Sensitivity Analysis: The Primer, John Wiley & Sons,
  3. D. J. Pannell, « Sensitivity Analysis of Normative Economic Models: Theoretical Framework and Practical Strategies », Agricultural Economics, vol. 16,‎ , p. 139–152 (DOI 10.1016/S0169-5150(96)01217-0)
  4. A. Bahremand et F. De Smedt, « Distributed Hydrological Modeling and Sensitivity Analysis in Torysa Watershed, Slovakia », Water Resources Management, vol. 22, no 3,‎ , p. 293–408 (DOI 10.1007/s11269-007-9168-x)
  5. M. Hill, D. Kavetski, M. Clark et M. Ye, « Practical use of computationally frugal model analysis methods », Groundwater, vol. 54, no 2,‎ , p. 159–170 (DOI 10.1111/gwat.12330)
  6. M. Hill et C. Tiedeman, Effective Groundwater Model Calibration, with Analysis of Data, Sensitivities, Predictions, and Uncertainty, John Wiley & Sons,
  7. A. O'Hagan, Uncertain Judgements: Eliciting Experts' Probabilities, Chichester, Wiley, (lire en ligne)
  8. J. Sacks, W. J. Welch, T. J. Mitchell et H. P. Wynn, « Design and Analysis of Computer Experiments », Statistical Science, vol. 4,‎ , p. 409–435
  9. J. Campbell, « Photosynthetic Control of Atmospheric Carbonyl Sulfide During the Growing Season », Science, vol. 322, no 5904,‎ , p. 1085–1088 (PMID 19008442, DOI 10.1126/science.1164015, Bibcode 2008Sci...322.1085C)
  10. R. Bailis, M. Ezzati et D. Kammen, « Mortality and Greenhouse Gas Impacts of Biomass and Petroleum Energy Futures in Africa », Science, vol. 308,‎ , p. 98–103 (PMID 15802601, DOI 10.1126/science.1106881, Bibcode 2005Sci...308...98B)
  11. J. Murphy, « Quantification of modelling uncertainties in a large ensemble of climate change simulations », Nature, vol. 430,‎ , p. 768–772 (PMID 15306806, DOI 10.1038/nature02771, Bibcode 2004Natur.430..768M)
  12. Czitrom, « One-Factor-at-a-Time Versus Designed Experiments », American Statistician, vol. 53, no 2,‎ (lire en ligne)
  13. Dan G. Cacuci, Sensitivity and Uncertainty Analysis: Theory, vol. I, Chapman & Hall
  14. Dan G. Cacuci, Mihaela Ionescu-Bujor et Michael Navon, Sensitivity and Uncertainty Analysis: Applications to Large-Scale Systems, vol. II, Chapman & Hall,
  15. A. Griewank, Evaluating Derivatives, Principles and Techniques of Algorithmic Differentiation, SIAM,
  16. Sobol', I. (1990). Sensitivity estimates for nonlinear mathematical models. Matematicheskoe Modelirovanie 2, 112–118. in Russian, translated in English in Sobol' , I. (1993). Sensitivity analysis for non-linear mathematical models. Mathematical Modeling & Computational Experiment (Engl. Transl.), 1993, 1, 407–414.
  17. T. Homma et A. Saltelli, « Importance measures in global sensitivity analysis of nonlinear models », Reliability Engineering and System Safety, vol. 52,‎ , p. 1–17 (DOI 10.1016/0951-8320(96)00002-6)
  18. Saltelli, A., K. Chan, and M. Scott (Eds.) (2000). Sensitivity Analysis. Wiley Series in Probability and Statistics. New York: John Wiley and Sons.