Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Dans cette section, on cherche à établir les résultats permettant de fournir une mesure de la précision des estimés effectués par une méthode d’estimation quelconque (généralement linéaire).

Soit une variable aléatoire ZvZ_v que l’on veut estimer à partir d’une combinaison linéaire des valeurs observées en différents points :

Zv=i=1nλiZ(xi)=i=1nλiZiZ_v^* = \sum_{i=1}^n \lambda_i Z(x_i) = \sum_{i=1}^n \lambda_i Z_i

où :

On définit l’erreur d’estimation comme la différence entre la valeur estimée et la valeur réelle:

e=ZvZve = Z_v^* - Z_v

La variance de cette erreur, appelée variance d’estimation, est obtenue par ce développement :

σe2=Var(e)=Var(ZvZv)=Var(Zv)+Var(Zv)2Cov(Zv,Zv)\sigma_e^2 = \mathrm{Var}(e) = \mathrm{Var}(Z_v^* - Z_v) = \mathrm{Var}(Z_v^*) + \mathrm{Var}(Z_v) - 2\,\mathrm{Cov}(Z_v^*, Z_v)
Rappel : Propriété de la variance sur une combinaison linéaire

On rappelle que la variance d’une combinaison linéaire de variables aléatoires est donnée par :

Var(i=1nλiZi)=i=1nj=1nλiλjCov(Zi,Zj)\mathrm{Var}\left( \sum_{i=1}^n \lambda_i Z_i \right) = \sum_{i=1}^n \sum_{j=1}^n \lambda_i \lambda_j \, \mathrm{Cov}(Z_i, Z_j)

et que

Cov(Zi,Zi)=Var(Zi)\mathrm{Cov}(Z_i, Z_i) = \mathrm{Var}(Z_i)

En substituant l’expression de ZvZ_v^* dans cette formule, on obtient :

σe2=Var(Zv)+i=1nj=1nλiλjCov(Zi,Zj)2i=1nλiCov(Zi,Zv)\sigma_e^2 = \mathrm{Var}(Z_v) + \sum_{i=1}^n \sum_{j=1}^n \lambda_i \lambda_j \mathrm{Cov}(Z_i, Z_j) - 2 \sum_{i=1}^n \lambda_i \mathrm{Cov}(Z_i, Z_v)

Interprétation

La variance d’estimation est donc composée de trois termes. Leur interprétation est foncièrement logique et nous allons en explorer les bases ici.

a) Var(Zv)\mathrm{Var}(Z_v) : Le phénomène que l’on cherche à estimer est-il intrinsèquement variable ou non ? Plus le phénomène que l’on étudie est variable, plus les erreurs de nos estimations seront également variables. Imaginons estimer une teneur à partir d’un champ constant. C’est assez simple : l’estimation sera la valeur constante et il n’y a aucune variabilité, donc l’estimation est facile. Si le champ est un bruit pur de grande variabilité, l’estimation devient complexe car la variance est élevée.

b) i=1nj=1nλiλjCov(Zi,Zj)\sum_{i=1}^n \sum_{j=1}^n \lambda_i \lambda_j \mathrm{Cov}(Z_i, Z_j) : Quel est le degré de redondance entre les observations ? Ce terme cherche à prendre en compte la redondance des données. L’estimation sera meilleure si les données sont éloignées les unes des autres (ce qui induit une covariance faible), et donc une variance d’estimation réduite. En revanche, si les données sont trop proches les unes des autres, Cov(Zi,Zj)\mathrm{Cov}(Z_i, Z_j) sera élevée et notre estimation sera moins fiable. Ce terme calcule donc la redondance entre les données, et l’objectif est de minimiser cet effet. Il est inutile d’avoir 100 données toutes situées dans la même zone ; au contraire, il est préférable de bien les répartir sur la grille, en tenant compte de l’anisotropie du phénomène étudié, bien sûr.

c) i=1nλiCov(Zi,Zv)\sum_{i=1}^n \lambda_i \mathrm{Cov}(Z_i, Z_v) : Les observations sont-elles bien placées par rapport à ce que l’on veut estimer ? Ce terme tient compte de la position des données par rapport à ce que l’on veut estimer. Il est évident que si les données sont très proches du point à estimer, l’estimation sera meilleure. Si Cov(Zi,Zv)\mathrm{Cov}(Z_i, Z_v) est élevé et que ce terme est précédé d’un signe négatif, la variance d’estimation sera réduite. Inversement, si les données sont très éloignées, Cov(Zi,Zv)\mathrm{Cov}(Z_i, Z_v) tendra vers 0 et n’aura pas d’effet sur la réduction de la variance d’estimation. Au final, il est très difficile d’estimer un point précisément lorsque les données sont à des années-lumière de ce que l’on cherche à estimer.

Remarques importantes

  1. Dans les formules ci-dessus, on reconnaît trois composantes :

    • Un terme lié au bloc à estimer : Var(Zv)\mathrm{Var}(Z_v) ou γ(v,v)\gamma(v,v)

    • Un terme lié aux points utilisés pour estimer : Cov(Zi,Zj)\mathrm{Cov}(Z_i, Z_j) ou γ(xi,xj)\gamma(x_i, x_j)

    • Un terme croisé : Cov(Zi,Zv)\mathrm{Cov}(Z_i, Z_v) ou γ(xi,v)\gamma(x_i, v)

  2. La variance d’estimation est une mesure de précision moyenne sur le gisement pour une configuration donnée. Elle est indépendante de la valeur estimée et ne prend pas en compte les effets proportionnels (ex. : gisement lognormal).

  3. Pour améliorer la précision, on peut chercher à minimiser σe2\sigma_e^2 en choisissant les poids λi\lambda_i de façon optimale — c’est le principe du krigeage.


Variance d’extension

C’est la variance d’estimation obtenue lorsqu’on étend la valeur d’un point à une surface ou un volume; la valeur d’un segment à une surface ou un volume; la valeur d’une surface à un volume, etc. Bref, il s’agit de variances d’estimation correspondant à des situations particulières qui, par leur simplicité, se prêtent bien à la construction d’abaques.

Les configurations seront introduites dans la section calcul.


Formulation avec le variogramme

En utilisant la relation qui relie la covariance et le variogramme :

Cov(Zi,Zj)=σ2γ(xixj)\mathrm{Cov}(Z_i, Z_j) = \sigma^2 - \gamma(x_i - x_j)

Il est possible d’écrire la variance d’estimation en termes du variogramme comme suit :

σe2=i,jλiλjγ(xi,xj)2iλiγ(xi,xv)+γ(v,v)\sigma_e^2 = \sum_{i,j} \lambda_i \lambda_j \gamma(x_i, x_j) - 2 \sum_i \lambda_i \gamma(x_i, x_v) + \gamma(v, v)

Combinaison d’erreurs élémentaires

Quand on dispose de nombreuses observations et que l’on souhaite estimer une moyenne sur un grand volume, le calcul direct de la variance d’estimation peut devenir lourd. Une approche simplifiée consiste à utiliser le principe de combinaison des erreurs élémentaires, qui décompose l’estimation globale en une série d’estimations locales approximativement indépendantes.


i. Grille régulière

Pour une grille régulière, l’estimé global est simplement :

Z=1ni=1nZiZ^* = \frac{1}{n} \sum_{i=1}^n Z_i

Chaque point est supposé représenter un bloc de taille égale. Si la variance d’erreur pour chaque bloc est σe2\sigma_e^2, la variance d’estimation globale est :

σe2(globale)=σe2n\sigma_e^2(\text{globale}) = \frac{\sigma_e^2}{n}

Les erreurs sont approximativement indépendantes, car chaque bloc est estimé avec un seul point.


ii. Échantillonnage aléatoire uniforme (stratifié)

Chaque point représente un bloc positionné aléatoirement dans le domaine. Pour un bloc viv_i, la variance d’estimation est :

σei2=E[(Z(x)Zˉ)2]=1vv(Z(x)Zˉ)2dx=D2(v)\sigma_{e_i}^2 = \mathbb{E}[(Z(x) - \bar{Z})^2] = \frac{1}{v} \int_v (Z(x) - \bar{Z})^2 \, dx = D^2(\cdot \mid v)

Donc la variance d’estimation globale est encore :

σe2=D2(v)n\sigma_e^2 = \frac{D^2(\cdot \mid v)}{n}

iii. Échantillonnage quelconque

Supposons que nous somme en mesure de calculer la variance d’estimation sur un sous domaine viv_i. Ainsi, pour l’ensemble du domaine VV, l’estimé est obtenu en combinant, selon des poids proportionnels aux volumes des sous-domaines, les différents estimés obtenus. On aura donc :

Z=i=1nviVZiZ = \sum_{i=1}^n \frac{v_i}{V} Z_i^*

et la variance d’estimation sera, puisque chaque erreur est considérée indépendante :

σe2=1V2i=1nvi2σei2\sigma_e^2 = \frac{1}{V^2} \sum_{i=1}^n v_i^2 \sigma_{e_i}^2

où les variances d’estimation élémentaires sont celles correspondant aux différents sous-domaines que l’on a pu reconnaître.


Remarques


Exemple

Une zone a été estimée directement par krigeage (variance d’estimation 0.36) puis par combinaison de 4 parcelles selon 2 scénarios différents (Fig. 1). Pour l’estimation de chaque parcelle, on n’utilise que les points s’y retrouvant. On calcule les variances d’estimation pour chaque parcelle et on combine le tout suivant le carré des surfaces de chaque parcelle. Les résultats obtenus par subdivision, dans les deux cas, sont quasi-identiques au résultat direct.

Illustration des paramètres du variogramme - effet de pépite, palier et portée.

Figure 1:Illustration des paramètres du variogramme - effet de pépite, palier et portée.