Vai al contenuto

Teoria dei segnali/Segnali aleatori e processi stocastici

Wikibooks, manuali e libri di testo liberi.

Segnali aleatori e processi stocastici

[modifica | modifica sorgente]

Teoria matematica

[modifica | modifica sorgente]

Pr(E) è la probabilità dell'evento E

X è una variabile aleatoria estratta dal processo X(t) (segnale aleatorio) ad un tempo fissato $t_{0}$

Si definisce la \emph{funzione di distribuzione di probabilità} della variabile aleatoria $X$ la funzione \begin{equation} F_{X}(x,t) = Pr(X \leq x) \end{equation} Cioè la probabilità che la variabile aleatoria assuma valori minori o uguali ad $x$ nell'istante $t$

Si definisce \emph{funzione di densità di probabilità} la derivata della distribuzione di probabilità rispetto a $x$ (se quest'ultima è derivabiile) \begin{equation} f_{X}(x,t) = \frac{dF_{X}(x,t)}{dx} \end{equation}

In generale la distribuzione di probabilità e la densità di probabilità dipendono dall'istante in cui è stata estratta la variabile $X$; un processo $X(t)$ si dice \emph{stazionario del primo ordine} queste non dipendono dal tempo

Si definisce anche la \emph{funzione distribuzione di probabilità di ordine n} come \begin{equation} F_{X}(x_{1},x_{2},\ldots,x_{n},t_{1}, t_{2}, \ldots, t_{n}) = Pr \big( X(t_{1}) \leq x_{1}, X(t_{2}) \leq x_{2}, \ldots, X(t_{n}) \leq x_{n} \big) \end{equation} e quindi corrispondentemente la \emph{funzione distribuzione di probabilità di ordine n}

Operatore di aspettazione

[modifica | modifica sorgente]

L'\emph{operatore di aspettazione} di un processo aleatorio è definito come \begin{equation} \Esp{g(X)} = \intI g(X) f_{X}(x,t) dx \end{equation} dove $g(X)$ è una funzione della variabile aleatoria $X$; è tale che non agisce su funzioni deterministiche (che possono essere portate fuori dal segno di integrale)

Il \emph{teorema del valor medio} stabilisce che \begin{equation} \mbox{se} \phantom{5} X_{2} = g(X_{1}) \phantom{30} \mbox{allora} \phantom{5} \M_{X_{2}} = \Esp{X_{2}} = \intI g(x) f_{X_{1}}(x)dx \end{equation}


Indici del primo ordine di un processo

[modifica | modifica sorgente]

Gli \emph{indici del primo ordine} di un processo sono indipententi dal tempo se il processo è stazionario del primo ordine (non è sempre vero il viceversa)

Si definisce \emph{valor medio di un processo} \begin{equation} \mu_{X}(t) = \Esp{X(t)} = \int _{-\infty} ^{+\infty} x f_{X}(x,t) dt \end{equation} rappresenta il valore attorno a cui si distribuiscono mediamente i valori del processo

Si definisce \emph{Potenza media di un processo} \begin{equation} P_{X}(t) = \Esp{X^{2}(t)} = \intI x^{2} f_{X}(x,t) dt \end{equation} rappresenta la potenza di un segnale deterministico con pari valore quadratico medio

Si definisce \emph{varianza di un processo} \begin{equation} \var_{X}(t) = \Esp{(X(t) - \M_{X}(t))^{2}} = \intI (x-\M_{X})^{2} f_{X}(x,t) dt \end{equation}

Questi tre indici sono legati dalla relazione detta \emph{Teorema dell'aspettazione} \begin{equation} P_{X}(t) = \mu_{X}^{2}(t) + \sigma_{X}^{2}(t) \end{equation}

Si definisce \emph{deviazione standard di un processo} \begin{equation} \sigma_{X}(t) = \sqrt{\sigma_{X}^{2}} \end{equation} la radice quadrata della varianza che indica la dispersione del processo rispetto al suo valor medio

Indici del secondo ordine di un processo

[modifica | modifica sorgente]

\emph{funzione di autocorrelazione} \begin{equation} \AC_{X}(t_{1},t_{2}) = \Esp{X(t_{1})X(t_{2})} = \end{equation} \begin{displaymath} \intI \intI x_{1} x_{2} f_{X}(x_{1},x_{2},t_{1},t_{2}) dx_{1} dx_{2} \end{displaymath} se i due istanti di tempo $t_{1} , t_{2}$ sono coincidenti si ha la potenza media (da questo si ricava il teorema dell'aspettazione)

\emph{funzione di autocovarianza} \begin{equation} C_{X}(t_{1},t_{2}) = \AC_{X}(t_{1},t_{2}) - \M_{X}(t_{1})\M_{X}(t_{2}) = \end{equation} \begin{displaymath} \intI \intI x_{1} x_{2} f_{X}(x_{1},x_{2},t_{1},t_{2}) dx_{1} dx_{2} \end{displaymath}


si definisce la \emph{densità spettrale di potenza di un processo} come la trasformata della sua autocorrelazione \begin{equation} \dsP_{X}(f) = \TCF{\AC_{X}(\tau)} \end{equation}

Il \emph{valore quadratico medio} (o RMS, root mean square) di un processo è la radice della sua aspettazione \begin{equation} RMS_{X(t)} = \sqrt{\Esp{X(t)}} \end{equation}


Processi stazionari

[modifica | modifica sorgente]

Un processo è \emph{stazionario del primo ordine} se la sua densità di probabilità non dipende dal tempo, \begin{displaymath} f_{X}(x,t) \Rightarrow f_{X}(x) \end{displaymath} gli indici del primo ordine sono in questo caso indipendenti dal tempo

Un processo è \emph{stazionario del di ordine $N$} se la sua densità di probabilità di ordine $N$ non dipende dal tempo, \begin{displaymath} f_{X}(x_{1}, \ldots, x_{N},t_{1}, \ldots, t_{N}) \Rightarrow f_{X}(x_{1}, \ldots, x_{N},t_{2}-t_{1}, \ldots, t_{N}-t_{N-1}) \end{displaymath} gli indici di ordine $N$ sono in questo caso dipendenti solo dalla distanza tra gli istanti di tempo

Un processo è \emph{stazionario in senso stretto} se è stazionario di ordine qualunque $N$ e per ogni insieme di stati

un processo stazionario $X_{S}$ gode delle seguenti proprietà \begin{itemize} \item l'autocorrelazione dipende solo dalla differenze degli istanti $\tau = t_{2} - t_{1}$ \begin{equation} \AC_{X_{S}}(\tau) = \Esp{X(t)X(t-\tau)} \end{equation} \item la media è indipendente dal tempo \end{itemize}

Un processo è \emph{stazionario in media} se la media non dipende dal tempo ed è \emph{stazionario in autocorrelazione} se l'autocorrelazione dipende solo dalla differenza degli istanti; un processo stazionario in media ed in autocorrelazione è \emph{stazionario in senso lato}


Processi gaussiani

[modifica | modifica sorgente]

Sono processi stazionari che hanno densità di probabilità \begin{equation} f_{G}(x) = \frac{1}{\sqrt{2 \pi \var_{G}}}

          \e{- \frac{(x - \M_{G})^{2}}{2 \var_{G}}}

\end{equation} il processo gaussiano con media nulla e varianza unitaria è detto \emph{processo gaussiano standard} $N \in \gaus{0}{1}$ \begin{equation} f_{N}(x) = \frac{1}{\sqrt{2 \pi}} \e{-\frac{x^{2}}{2}} \end{equation}

L'insieme dei processi gaussiani con media $\M_{G}$ e varianza $\var_{G}$ è indicato con $\gaus{\M_{G}}{\var_{g}}$

La distribuzione di probabilità di un processo gaussiano è data in funzione di due funzioni standard $Q(\cdot)$ oppure $\Phi(\cdot)$ \begin{equation} F_{w} = \Phi \left( \frac{x - \M_{w}}{\var_{w}} \right)

     = 1 - Q \left( \frac{x - \M_{w}}{\var_{w}} \right)

\end{equation} dove \begin{equation} \Phi(x) = \int _{-\infty} ^{x} \frac{1}{\sqrt{2\pi}} \e{-\frac{x^{2}}{2}} dx \end{equation} \begin{equation} Q(x) = \int _{x} ^{+\infty} \frac{1}{\sqrt{2\pi}} \e{-\frac{x^{2}}{2}} dx \end{equation}


Rumore bianco

[modifica | modifica sorgente]

(o AWGN additive white gaussian noise) $w(t)$

è tale che \begin{itemize} \item $\M_{w(t)} = 0$: ha media nulla \item $\var_{w(t)} = P_{w(t)}$: ha varianza costante e pari alla potenza \item $\dsP_{w(t)} = N_{0}/2$: ha densità spettrale di potenza costante \end{itemize}

può essere anche considerato come scomposto nelle sue due componenti in fase e in quadratura \begin{displaymath} w(t) = w_{c}(t) \cos (2 \pi f_{0} t) - w_{s}(t) \sin (2 \pi f_{0} t) \\ \phantom{30} \mbox{con $S_{w_{c}(t)} = S_{w_{s}(t)} = \rect{N_{0}}{B}$} \end{displaymath}

l'aspettazione del prodotto di due processi in fase-quadratura è nulla \begin{equation} \Esp{x_{1}(t)x_{2}(t)} = 0 \end{equation}