Propagazione dell'incertezza

Per capire come si propaga esattamente l'incertezza in un sistema è pertanto necessario un processo, più o meno complesso, sia di inversione che di derivazione del sistema stesso.

In molte applicazioni risulta pertanto difficoltoso, se non impossibile, ottenere in forma analitica la distribuzione di probabilità all'uscita di una trasformazione di una generica distribuzione in ingresso. Per fortuna, in applicazioni pratiche, spesso è richiesta una precisione inferiore nell'affrontare un problema di propagazione dell'incertezza, limitandosi normalmente alle sole statistiche di primo e secondo ordine e limitandosi ai casi di distribuzione di probabilità di tipo gaussiano.

Somma o differenza di grandezze

La variabile aleatoria $Z=X \pm Y$, somma/differenza di variabili aleatorie indipendenti, ha varianza (covarianza) pari a
\begin{displaymath}
\text{var}(Z)=\text{var}(X)+\text{var}(Y)
\end{displaymath} (2.27)

La varianza della variabile risultante pertanto è la somma delle singole varianze.

Trasformazioni Lineari

Sia $\mathbf{y} = \mathbf{A} \mathbf{x}$ un sistema lineare dove al vettore aleatorio $\mathbf {x}$ è associata la matrice di covarianza $\text{var}(X)$. La matrice di covarianza della variabile aleatoria $\mathbf{y}$ risultante, uscita del sistema, è
\begin{displaymath}
\text{var}(Y) = \text{var}(\mathbf{A}X) = \mathbf{A} \text{var}(X) \mathbf{A}^{\top}
\end{displaymath} (2.28)

Tale relazione vale anche nel caso di proiezioni $y = \mathbf{b} \cdot \mathbf{x}$ e, in modo simile al sistema lineare, la varianza della variabile $Y$ diventa

\begin{displaymath}
\text{var}(Y) = \text{var}(\mathbf{b}^{\top}X) = \mathbf{b}^{\top}\text{var}(X) \mathbf{b}
\end{displaymath} (2.29)

Generalizzando i casi precedenti, la cross-covarianza tra $\mathbf{A}\mathbf{x}$ e $\mathbf{B}\mathbf{y}$ si può scrivere come:

\begin{displaymath}
\text{cov}(\mathbf{A}X, \mathbf{B}Y) = \mathbf{A} \text{cov}(X, Y) \mathbf{B}^{\top}
\end{displaymath} (2.30)

e, come caso particolare, la cross-covarianza tra $\mathbf {x}$ e $\mathbf{A}\mathbf{x}$
\begin{displaymath}
\text{cov}(X, \mathbf{A}X) = \text{var}(X) \mathbf{A}^{\top}
\end{displaymath} (2.31)

È da notare che $\text{cov}(Y,X) = \text{cov}(X,Y)^\top = \mathbf{A} \text{var}(X)$.

Gli esempi di propagazione dell'incertezza visti finora si possono ulteriormente generalizzare, anticipando risultati importanti per il caso non-lineare, presentato la trasformazione affine $f(\mathbf{x})$ definita come

\begin{displaymath}
f(\mathbf{x}) = f_{\bar{\mathbf{x}}} + \mathbf{A} (\mathbf{x} - \bar{\mathbf{x}})
\end{displaymath} (2.32)

ovvero una trasformazione di variabili casuali $Y=f(X)$ che di fatto di valor medio $\bar{y}=f_{\bar{\mathbf{x}}}$ e matrice di covarianza $\boldsymbol\Sigma_Y = \mathbf{A} \boldsymbol\Sigma_X \mathbf{A}^{\top}$.

Trasformazioni non lineari

La propagazione della covarianza nel caso non-lineare non è infatti facilmente ottenibile in forma chiusa e in genere si ottiene solo in forma approssimata. Tecniche come la simulazione Monte Carlo possono essere usate per simulare in maniera molto accurata a diversi ordini di precisione la distribuzione di probabilità a seguito una generica trasformazione. L'approssimazione lineare è comunque ampiamente usata nei problemi pratici ma, come si vedrà nella sezione successiva, tecniche moderne permettono la stima della covarianza a ordini di precisione elevati in maniera abbastanza semplice.

Normalmente, per statistiche di primo ordine (first-order error propagation), la trasformazione $f$ non lineare viene approssimata, attraverso l'espansione in serie, da una trasformazione affine

\begin{displaymath}
f(\mathbf{x}) \approx f(\bar{\mathbf{x}}) + \mathbf{J}_f (\mathbf{x} - \bar{\mathbf{x}})
\end{displaymath} (2.33)

con $\mathbf{J}_f$ matrice delle derivate parziali (Jacobiano) della funzione $f$. Con questa approssimazione, il risultato del caso lineare affine mostrato in precedenza in equazione (2.32) può essere usato per determinare la matrice di covarianza della variabile $f(\mathbf{x})$, sostituendo alla matrice $\mathbf{A}$ lo Jacobiano, ottenendo la covarianza
\begin{displaymath}
\boldsymbol\Sigma_Y = \mathbf{J}_f \boldsymbol\Sigma_X \mathbf{J}_f^{\top}
\end{displaymath} (2.34)

e usando come valor medio atteso $\bar{y} = f(\bar{\mathbf{x}})$.



Subsections
Paolo medici
2025-03-12