8.1 Krigeage Ordinaire et Simple
Krigeage Ordinaire ¶ Supposons que l’on veuille estimer un bloc v v v centré au point x 0 \mathbf{x}_0 x 0 . Notons Z v Z_v Z v la vraie valeur (inconnue) de ce bloc et Z v ∗ Z_v^* Z v ∗ l’estimateur que l’on obtient.
L’estimateur est linéaire, i.e. :
Z v ∗ = ∑ i = 1 n λ i Z ( x i ) Z_v^* = \sum_{i=1}^n \lambda_i Z(\mathbf{x}_i) Z v ∗ = i = 1 ∑ n λ i Z ( x i ) où les Z i Z_i Z i désignent les variables aléatoires correspondant aux points échantillons.
On veut minimiser :
σ K 2 = V a r ( Z v − Z v ∗ ) \sigma_K^2 = \mathrm{Var}(Z_v - Z_v^*) σ K 2 = Var ( Z v − Z v ∗ ) En substituant l’expression de l’estimateur :
σ K 2 = V a r ( Z v − ∑ i = 1 n λ i Z ( x i ) ) \sigma_K^2 = \mathrm{Var} \left( Z_v - \sum_{i=1}^n \lambda_i Z(\mathbf{x}_i) \right) σ K 2 = Var ( Z v − i = 1 ∑ n λ i Z ( x i ) ) Pour que l’estimateur soit sans biais, il faut que :
∑ i = 1 n λ i = 1 \sum_{i=1}^n \lambda_i = 1 i = 1 ∑ n λ i = 1 En effet :
E [ Z v ∗ ] = ∑ i = 1 n λ i E [ Z ( x i ) ] = E [ Z v ] \mathbb{E}[Z_v^*] = \sum_{i=1}^n \lambda_i \mathbb{E}[Z(\mathbf{x}_i)] = \mathbb{E}[Z_v] E [ Z v ∗ ] = i = 1 ∑ n λ i E [ Z ( x i )] = E [ Z v ] On a un problème de minimisation d’une fonction quadratique sous contrainte d’égalité, que l’on résout par la méthode de Lagrange :
L ( λ 1 , … , λ n , μ ) = V a r ( Z v − ∑ i = 1 n λ i Z ( x i ) ) + μ ( ∑ i = 1 n λ i − 1 ) \mathcal{L}(\lambda_1, \dots, \lambda_n, \mu) = \mathrm{Var}\left(Z_v - \sum_{i=1}^n \lambda_i Z(\mathbf{x}_i)\right) + \mu \left( \sum_{i=1}^n \lambda_i - 1 \right) L ( λ 1 , … , λ n , μ ) = Var ( Z v − i = 1 ∑ n λ i Z ( x i ) ) + μ ( i = 1 ∑ n λ i − 1 ) où μ \mu μ est le multiplicateur de Lagrange.
Cela mène au système de krigeage ordinaire :
{ ∑ j = 1 n λ j C ( x i − x j ) + μ = C ( x i − x 0 ) , i = 1 , … , n ∑ j = 1 n λ j = 1 \begin{cases}
\sum_{j=1}^n \lambda_j C(\mathbf{x}_i - \mathbf{x}_j) + \mu = C(\mathbf{x}_i - \mathbf{x}_0), & i = 1, \dots, n \\
\sum_{j=1}^n \lambda_j = 1
\end{cases} { ∑ j = 1 n λ j C ( x i − x j ) + μ = C ( x i − x 0 ) , ∑ j = 1 n λ j = 1 i = 1 , … , n La variance d’estimation minimale , appelée variance de krigeage , est donnée par :
σ K 2 = ∑ i = 1 n λ i C ( x i − x 0 ) + μ \sigma_K^2 = \sum_{i=1}^n \lambda_i C(\mathbf{x}_i - \mathbf{x}_0) + \mu σ K 2 = i = 1 ∑ n λ i C ( x i − x 0 ) + μ Cette variance ne dépend pas des valeurs observées , mais uniquement du variogramme et de la configuration spatiale .
Système en termes de variogramme ¶ On utilise la relation :
C ( h ) = σ 2 − γ ( h ) C(h) = \sigma^2 - \gamma(h) C ( h ) = σ 2 − γ ( h ) et le fait que ∑ λ i = 1 \sum \lambda_i = 1 ∑ λ i = 1 , d’où :
∑ j = 1 n λ j γ ( x i − x j ) − μ = γ ( x i − x 0 ) , i = 1 , … , n \sum_{j=1}^n \lambda_j \gamma(\mathbf{x}_i - \mathbf{x}_j) - \mu = \gamma(\mathbf{x}_i - \mathbf{x}_0), \quad i = 1, \dots, n j = 1 ∑ n λ j γ ( x i − x j ) − μ = γ ( x i − x 0 ) , i = 1 , … , n [ C ( x 1 , x 1 ) ⋯ C ( x 1 , x n ) 1 ⋮ ⋱ ⋮ ⋮ C ( x n , x 1 ) ⋯ C ( x n , x n ) 1 1 ⋯ 1 0 ] [ λ 1 ⋮ λ n μ ] = [ C ( x 1 , x 0 ) ⋮ C ( x n , x 0 ) 1 ] \begin{bmatrix}
C(\mathbf{x}_1, \mathbf{x}_1) & \cdots & C(\mathbf{x}_1, \mathbf{x}_n) & 1 \\
\vdots & \ddots & \vdots & \vdots \\
C(\mathbf{x}_n, \mathbf{x}_1) & \cdots & C(\mathbf{x}_n, \mathbf{x}_n) & 1 \\
1 & \cdots & 1 & 0
\end{bmatrix}
\begin{bmatrix}
\lambda_1 \\
\vdots \\
\lambda_n \\
\mu
\end{bmatrix}
=
\begin{bmatrix}
C(\mathbf{x}_1, \mathbf{x}_0) \\
\vdots \\
C(\mathbf{x}_n, \mathbf{x}_0) \\
1
\end{bmatrix} ⎣ ⎡ C ( x 1 , x 1 ) ⋮ C ( x n , x 1 ) 1 ⋯ ⋱ ⋯ ⋯ C ( x 1 , x n ) ⋮ C ( x n , x n ) 1 1 ⋮ 1 0 ⎦ ⎤ ⎣ ⎡ λ 1 ⋮ λ n μ ⎦ ⎤ = ⎣ ⎡ C ( x 1 , x 0 ) ⋮ C ( x n , x 0 ) 1 ⎦ ⎤ Krigeage Simple ¶ Quand la moyenne m m m du champ est connue ou bien estimée, on utilise :
Z v ∗ = m + ∑ i = 1 n λ i ( Z ( x i ) − m ) Z_v^* = m + \sum_{i=1}^n \lambda_i (Z(\mathbf{x}_i) - m) Z v ∗ = m + i = 1 ∑ n λ i ( Z ( x i ) − m ) La variance d’estimation devient :
σ K 2 = V a r ( Z v − m − ∑ i = 1 n λ i ( Z ( x i ) − m ) ) \sigma_K^2 = \mathrm{Var} \left( Z_v - m - \sum_{i=1}^n \lambda_i (Z(\mathbf{x}_i) - m) \right) σ K 2 = Var ( Z v − m − i = 1 ∑ n λ i ( Z ( x i ) − m ) ) On obtient le système de krigeage simple :
∑ j = 1 n λ j C ( x i − x j ) = C ( x i − x 0 ) , i = 1 , … , n \sum_{j=1}^n \lambda_j C(\mathbf{x}_i - \mathbf{x}_j) = C(\mathbf{x}_i - \mathbf{x}_0), \quad i = 1, \dots, n j = 1 ∑ n λ j C ( x i − x j ) = C ( x i − x 0 ) , i = 1 , … , n Et la variance de krigeage simple :
σ K 2 = σ 2 − ∑ i = 1 n λ i C ( x i − x 0 ) \sigma_K^2 = \sigma^2 - \sum_{i=1}^n \lambda_i C(\mathbf{x}_i - \mathbf{x}_0) σ K 2 = σ 2 − i = 1 ∑ n λ i C ( x i − x 0 ) Remarques ¶ La variance du krigeage simple est toujours inférieure à celle du krigeage ordinaire, mais nécessite la connaissance de m m m .
Le krigeage simple suppose la stationnarité du second ordre , plus forte que l’intrinsécité du krigeage ordinaire.
Il est impossible d’écrire le système simple en termes de variogramme directement (pas de contrainte sur ∑ λ i \sum \lambda_i ∑ λ i ).
À courte distance, les deux méthodes donnent des résultats très similaires . Avec un effet de pépite ou à grande distance, le krigeage ordinaire retourne la moyenne locale , le krigeage simple retourne m m m .
Le krigeage ordinaire est généralement préféré , sauf pour des cas particuliers (indicatrices, simulations).
[ C ( x 1 , x 1 ) ⋯ C ( x 1 , x n ) ⋮ ⋱ ⋮ ⋮ C ( x n , x 1 ) ⋯ C ( x n , x n ) ] [ λ 1 ⋮ λ n ] = [ C ( x 1 , x 0 ) ⋮ C ( x n , x 0 ) ] \begin{bmatrix}
C(\mathbf{x}_1, \mathbf{x}_1) & \cdots & C(\mathbf{x}_1, \mathbf{x}_n) \\
\vdots & \ddots & \vdots & \vdots \\
C(\mathbf{x}_n, \mathbf{x}_1) & \cdots & C(\mathbf{x}_n, \mathbf{x}_n)
\end{bmatrix}
\begin{bmatrix}
\lambda_1 \\
\vdots \\
\lambda_n
\end{bmatrix}
=
\begin{bmatrix}
C(\mathbf{x}_1, \mathbf{x}_0) \\
\vdots \\
C(\mathbf{x}_n, \mathbf{x}_0)
\end{bmatrix} ⎣ ⎡ C ( x 1 , x 1 ) ⋮ C ( x n , x 1 ) ⋯ ⋱ ⋯ C ( x 1 , x n ) ⋮ C ( x n , x n ) ⋮ ⎦ ⎤ ⎣ ⎡ λ 1 ⋮ λ n ⎦ ⎤ = ⎣ ⎡ C ( x 1 , x 0 ) ⋮ C ( x n , x 0 ) ⎦ ⎤