Skip to article frontmatterSkip to article content

Krigeage Ordinaire

Supposons que l’on veuille estimer un bloc vv centré au point x0\mathbf{x}_0. Notons ZvZ_v la vraie valeur (inconnue) de ce bloc et ZvZ_v^* l’estimateur que l’on obtient.

L’estimateur est linéaire, i.e. :

Zv=i=1nλiZ(xi)Z_v^* = \sum_{i=1}^n \lambda_i Z(\mathbf{x}_i)

où les ZiZ_i désignent les variables aléatoires correspondant aux points échantillons.

On veut minimiser :

σK2=Var(ZvZv)\sigma_K^2 = \mathrm{Var}(Z_v - Z_v^*)

En substituant l’expression de l’estimateur :

σK2=Var(Zvi=1nλiZ(xi))\sigma_K^2 = \mathrm{Var} \left( Z_v - \sum_{i=1}^n \lambda_i Z(\mathbf{x}_i) \right)

Pour que l’estimateur soit sans biais, il faut que :

i=1nλi=1\sum_{i=1}^n \lambda_i = 1

En effet :

E[Zv]=i=1nλiE[Z(xi)]=E[Zv]\mathbb{E}[Z_v^*] = \sum_{i=1}^n \lambda_i \mathbb{E}[Z(\mathbf{x}_i)] = \mathbb{E}[Z_v]

On a un problème de minimisation d’une fonction quadratique sous contrainte d’égalité, que l’on résout par la méthode de Lagrange :

L(λ1,,λn,μ)=Var(Zvi=1nλiZ(xi))+μ(i=1nλi1)\mathcal{L}(\lambda_1, \dots, \lambda_n, \mu) = \mathrm{Var}\left(Z_v - \sum_{i=1}^n \lambda_i Z(\mathbf{x}_i)\right) + \mu \left( \sum_{i=1}^n \lambda_i - 1 \right)

μ\mu est le multiplicateur de Lagrange.

Cela mène au système de krigeage ordinaire :

{j=1nλjC(xixj)+μ=C(xix0),i=1,,nj=1nλj=1\begin{cases} \sum_{j=1}^n \lambda_j C(\mathbf{x}_i - \mathbf{x}_j) + \mu = C(\mathbf{x}_i - \mathbf{x}_0), & i = 1, \dots, n \\ \sum_{j=1}^n \lambda_j = 1 \end{cases}

La variance d’estimation minimale, appelée variance de krigeage, est donnée par :

σK2=i=1nλiC(xix0)+μ\sigma_K^2 = \sum_{i=1}^n \lambda_i C(\mathbf{x}_i - \mathbf{x}_0) + \mu

Cette variance ne dépend pas des valeurs observées, mais uniquement du variogramme et de la configuration spatiale.

Système en termes de variogramme

On utilise la relation :

C(h)=σ2γ(h)C(h) = \sigma^2 - \gamma(h)

et le fait que λi=1\sum \lambda_i = 1, d’où :

j=1nλjγ(xixj)μ=γ(xix0),i=1,,n\sum_{j=1}^n \lambda_j \gamma(\mathbf{x}_i - \mathbf{x}_j) - \mu = \gamma(\mathbf{x}_i - \mathbf{x}_0), \quad i = 1, \dots, n

Forme matricielle

[C(x1,x1)C(x1,xn)1C(xn,x1)C(xn,xn)1110][λ1λnμ]=[C(x1,x0)C(xn,x0)1]\begin{bmatrix} C(\mathbf{x}_1, \mathbf{x}_1) & \cdots & C(\mathbf{x}_1, \mathbf{x}_n) & 1 \\ \vdots & \ddots & \vdots & \vdots \\ C(\mathbf{x}_n, \mathbf{x}_1) & \cdots & C(\mathbf{x}_n, \mathbf{x}_n) & 1 \\ 1 & \cdots & 1 & 0 \end{bmatrix} \begin{bmatrix} \lambda_1 \\ \vdots \\ \lambda_n \\ \mu \end{bmatrix} = \begin{bmatrix} C(\mathbf{x}_1, \mathbf{x}_0) \\ \vdots \\ C(\mathbf{x}_n, \mathbf{x}_0) \\ 1 \end{bmatrix}

Krigeage Simple

Quand la moyenne mm du champ est connue ou bien estimée, on utilise :

Zv=m+i=1nλi(Z(xi)m)Z_v^* = m + \sum_{i=1}^n \lambda_i (Z(\mathbf{x}_i) - m)

La variance d’estimation devient :

σK2=Var(Zvmi=1nλi(Z(xi)m))\sigma_K^2 = \mathrm{Var} \left( Z_v - m - \sum_{i=1}^n \lambda_i (Z(\mathbf{x}_i) - m) \right)

On obtient le système de krigeage simple :

j=1nλjC(xixj)=C(xix0),i=1,,n\sum_{j=1}^n \lambda_j C(\mathbf{x}_i - \mathbf{x}_j) = C(\mathbf{x}_i - \mathbf{x}_0), \quad i = 1, \dots, n

Et la variance de krigeage simple :

σK2=σ2i=1nλiC(xix0)\sigma_K^2 = \sigma^2 - \sum_{i=1}^n \lambda_i C(\mathbf{x}_i - \mathbf{x}_0)

Remarques


Forme matricielle du krigeage simple

Cλ=c0\mathbf{C} \boldsymbol{\lambda} = \mathbf{c}_0

où :

L’estimation s’écrit :

Zv=m+λ(Zm1)Z_v^* = m + \boldsymbol{\lambda}^\top ( \mathbf{Z} - m \mathbf{1} )

et la variance :

σK2=σ2λc0\sigma_K^2 = \sigma^2 - \boldsymbol{\lambda}^\top \mathbf{c}_0