Model’s output variance can increase when input variance decreases: a sensitivity analysis paradox?
Pour certains modeles, reduire la variance d’une ou plusieurs variables d’entree provoque une augmentation de la variance de la sortie du modele. Ce phenomene n’est pas concevable dans le cadre des modeles lineaires decrits par le GUM, mais peut etre, en revanche, observable par propagation des distributions sur des modeles non-lineaires. Dans tous les cas, les methodes d’analyse de sensibilite basees sur une decomposition de la variance sont aveugles a ce phenomene. Actuellement, seule la methode des gradients de la variance per-met de le detecter et d’en predire les effets. Dans cette etude, nous nous sommes poses plusieurs questions : (1) quel type de modele peut produire cette inversion …