Logo DSS

Signale and Systeme – Zufallsprozesse und Systeme

Inhalt

Reaktion linearer Systeme auf stationäre stochastische Signale
Grundlagen
Stochastische Beschreibung der Ausgangssignale linearer Systeme

Reaktion linearer Systeme auf stationäre stochastische Signale

Grundlagen

Statistische Kenngrößen am Ausgang linearer Systeme

Gegeben sei \(v(t)\) bzw. \(v(n)\) als stationärer Zufallsprozess. Dieser sei das Eingangssignal eines linearen Systems.

SystemKont
\(S\)
\( v(t) \), \( v(n) \)
\( y(t) \), \( y(n) \)

Gesucht sind nun die Eigenschaften des Systemausgangssignals \(y(t)\) bzw. \(y(n)\). Wichtig dabei ist, dass das Ausgangssignal ebenfalls stochastisch zu betrachten ist.

Es wird nun angenommen, dass \(y(t)\) bzw. \(y(n)\) nicht direkt angebbar sind, sondern lediglich durch entsprechende statistische Größen wie z.B. \(f_y(y)\), \(F_y(y)\), \(s_{yy}({\tau})\) oder \(s_{yy}({\kappa})\) beschreibbar sind.

Vom System wird angenommen, dass dessen Impulsantwort \(h_0(t,{\tau})\) bzw. \(h_0(n,{\kappa})\) bekannt ist. Wird zusätzlich gefordert, dass das System verschiebungsinvariant ist, so vereinfachen sich die Impulsantworten zu \(h_0(t)\) bzw. \(h_0(n)\). Alternativ können auch die Sprungantworten oder die Frequenzgänge bzw. Übertragungsfunktionen als Systembeschreibung verwendet werden.

Im Folgenden wird nun versucht,

des Systemausgangssignals zu bestimmen.

Stochastische Beschreibung der Ausgangssignale linearer Systeme

Wahrscheinlichkeitsdichtefunktion

Im Allgemeinen kann die Wahrscheinlichkeitsdichtefunktion am Ausgang eines Systems nicht angegeben werden.

Für den Sonderfall eines diskreten stationären Signals mit statistisch unabhängigen Werten \(v(n), v(n+{\kappa})\,{\forall}\,{\kappa} \,{\ne}\,0\) können allerdings einige Überlegungen angestellt werden. Es wird dazu angenommen, dass die Wahrscheinlichkeitsdichte des Signals \(f_v(v)\) bekannt ist. Wird das Signal mit einem determinierten Faktor \(h_0(\kappa)\) gewichtet, so ergibt sich für die Wahrscheinlichkeitsdichte des Signals \(y(n) = h_0(\kappa)v(n)\):

\begin{equation*} \begin{aligned} f_y(v) &=\,\, \frac{1}{h_0({\kappa})}\,f_v\,\Bigl(\,\frac{v}{h_0({\kappa})}\Bigr)\,. \end{aligned} \end{equation*}

Setzt man nun eine allgemeine Differenzengleichung eines linearen, verschiebungsinvarianten Systems an, so ergibt sich für das Ausgangssignal

\begin{equation*} \begin{aligned} y(n) &=\,\, ...+\,h_0(-1)\,v(n\,+\,1)\,+\,h_0(0)\,v(n)\,+\,h_0(1)\,v(n\,-\,1)+\,...\,. \end{aligned} \end{equation*}

Wie es aus den vorigen Vorlesungen bekannt ist, ergibt sich bei der Summation von zwei statistisch unabhängigen Zufallsvariablen für die Dichte des Ergebnisses eine Faltung der Eingangsdichten. Wird dieses Wissen hier angewendet, so ergibt sich:

\begin{equation*} \begin{aligned} f_y(y) &=\,\, ... \ast\,\frac{1}{{\mid}h_0(-1){\mid}}\,f_v\,\Bigl(\,\frac{y}{h_0(-1)} \Bigr)\,\,\ast\,\,\frac{1}{{\mid}h_0(0){\mid}}\,f_v\Bigl(\frac{y}{h_0(0)}\Bigr)\,\, \ast\,\,\frac{1}{{\mid}h_0(1){\mid}} \,f_v\Bigl(\frac{y}{h_0(1)}\Bigr)\,\,\ast\,\, ...\,. \\[1mm] \end{aligned} \end{equation*}

Dieses Ergebnis ist aber für den praktischen Gebrauch recht ungeeignet.

Praktischer ist hier die Anwendung des sog. Zentralen Grenzwertsatzes. Dieser besagt, dass - unter sehr allgemeinen Bedingungen - die Wahrscheinlichkeitsdichte der Summe aus statistisch unabhängigen Zufallsprozessen mit zunehmender Anzahl der Summanden gegen eine Gauß′sche Wahrscheinlichkeitsdichte konvergiert.

Es gibt zahlreiche Formulierungen des zentralen Grenzwertsatzes. Eine davon lautet:

Hier fehlt das richtige Matlabbeispiel in Bezug auf den zentralen Grenzwertsatz!

Linearer Mittelwert

Zunächst sei das System zwar linear, aber nicht notwendigerweise verschiebungsinvariant. In diesem Fall ergibt sich für den linearen Mittelwert im

Anschauliche Deutung: Der Mittelwert spiegelt den "Gleichanteil" eines Signals wieder. Dieser wird durch ein lineares, verschiebungsinvariantes System bei der Frequenz 0, d.h. mit dem Faktor \(H(0)\) bzw. \(H(1)\) übertragen.

Varianz

Setzt man wieder Verschiebungsinvarianz des Systems voraus, so kann die Varianz am Ausgang eines linearen Systems wie folgt bestimmt werden:

\begin{equation*} \begin{aligned} \sigma_y^2 \,\,=\,\, m_y^{(2)} - (m_y)^2 \,\,=\,\, s_{yy}(0) - (m_y)^2 \,\,=\,\, \psi_{yy}(0). \end{aligned} \end{equation*}

Die hierzu notwendige Autokorrelationsfunktion bzw. Autokovarianzfunktion des Systemausgangssignals bzw. die entsprechenden Folgen für diskrete Signale werden in den nächsten Teilabschnitten hergeleitet.

Auto- und Kreuzkorrelationsfunktion bzw. -folge

Ähnlich wie bei den Überlegungen zum Mittelwert lässt sich durch Anwendung der Faltung auch die Autokorrelation \(s_{vv}(t_1,t_2)\) bzw. \(s_{vv}(n_1,n_2)\) des Eingangssignals herleiten. Wir nehmen dazu zunächst reelle Signale und Systeme an. Für die Kreuzkorrelationsfolgen \(s_{vy}(n_1,n_2)\) und \(s_{yv}(n_1,n_2)\) zwischen diskretem Eingang und diskretem Ausgang gilt für verschiebungsinvariante Systeme:

\begin{equation*} \begin{aligned} s_{vy}(n_1,n_2) &= \textrm{E} \big\{ v(n_1)\,y(n_2) \big\} \\ &\scriptsize{\color{grey}{\text{... Faltungsdefinition einsetzen...}}} \\ &= \textrm{E} \bigg\{ v(n_1)\,\sum\limits_{\kappa=-\infty}^{\infty}h_0(\kappa)\, v(n_2-\kappa) \bigg\}. \end{aligned} \end{equation*}

Durch Vertauschen von Erwartungswert und Summe ergibt sich schließlich:

\begin{equation*} \begin{aligned} s_{vy}(n_1,n_2) &= \sum\limits_{\kappa=-\infty}^{\infty}h_0(\kappa)\, \textrm{E} \big\{ v(n_1)\,v(n_2-\kappa) \big\} \\ &\scriptsize{\color{grey}{\text{... Kurze Schreibweise fuer die Autokorrelationsfunktion einsetzen...}}} \\ &= \sum\limits_{\kappa=-\infty}^{\infty}h_0(\kappa)\, s_{vv}(n_1,n_2-\kappa). \end{aligned} \end{equation*}

Für stationäre Signale vereinfacht sich das Ergebnis zu

\begin{equation*} \begin{aligned} s_{vy}(k) &=& \sum\limits_{\kappa=-\infty}^{\infty}h_0(\kappa)\, s_{vv}(k-\kappa). \end{aligned} \end{equation*}

Dieser Zusammenhang entspricht einer Faltung, d.h. es gilt der gleiche Zusammenhang zwischen \(s_{vv}(\kappa)\) und \(s_{vy}(\kappa)\) wie zwischen \(v(n)\) und \(y(n)\).

SystemKont
\(v(n)\)
\(h_0(n)\)
\(y(n)\)
\(s_{vv}(\kappa)\)
\(h_0(\kappa)\)
\(s_{vy}(\kappa)\)


Analog kann die Kreuzkorrelierte zwischen dem Ausgangs- und dem Eingangssignal eines linearen, verschiebungsinvarianten Systems (umgekehrte Argumentreihenfolge im Vergleich zu vorher) bestimmt werden. Es ergibt sich:

\begin{equation*} \begin{aligned} s_{yv}(k) &=& \sum\limits_{\kappa=-\infty}^{\infty}h_0(-\kappa)\, s_{vv}(k-\kappa). \end{aligned} \end{equation*}

Diese Kreuzkorrelationsfolge erhält man durch Faltung der Autokorrelationsfolge mit der gespiegelten Impulsantwort \(h_0(-\kappa)\).

SystemKont
\(h_0(-\kappa)\)
\( s_{vv}(\kappa) \)
\( s_{yv}(\kappa) \)

Bei stationären kontinuierlichen Zufallsprozessen und bei linearen, verschiebungsinvarianten kontinuierlichen Systemen ergibt sich analog:

\begin{equation*} \begin{aligned} s_{vy}(\tau) &= \int\limits_{t=-\infty}^{\infty}h_0(t)\, s_{vv}(\tau-t)\,dt,\\ s_{yv}(\tau) &= \int\limits_{t=-\infty}^{\infty}h_0(-t)\, s_{vv}(\tau-t)\,dt. \end{aligned} \end{equation*}

Will man nun die Autokorrelationsfunktion bzw. -folge des Ausgangssignals eines linearen, verschiebungsinvarianten Systems bestimmen, so muss man die Eingangsautokorrelierte nacheinander (in beliebiger Reihenfolge) mit \(h_0(\tau)\) bzw. \(h_0(\kappa)\) und \(h_0(-\tau)\) bzw. \(h_0(-\kappa)\) falten:

\begin{equation*} \begin{aligned} s_{yy}(t_1,t_2) &= \textrm{E}\big\{ y(t_1)\,y(t_2) \big\}\\ &= \int\limits_{t=-\infty}^{\infty}\int\limits_{u=-\infty}^{\infty} h_0(-t)\, h_0(u)\, s_{vv}(t_1+t,t_2-u)\,dt\,du. \end{aligned} \end{equation*}

Gilt wieder Stationarität, so vereinfacht sich der Ausdruck zu

\begin{equation*} \begin{aligned} s_{yy}(\tau) &=& \int\limits_{t=-\infty}^{\infty}\int\limits_{u=-\infty}^{\infty} h_0(-t)\, h_0(u)\, s_{vv}(\tau-u-v)\,dt\,du. \end{aligned} \end{equation*}

Analog gilt für diskrete instationäre Zufallsprozesse:

\begin{equation*} \begin{aligned} s_{yy}(n_1,n_2) &=& \sum\limits_{l=-\infty}^{\infty}\sum\limits_{k=-\infty}^{\infty} h_0(-l)\, h_0(k)\, s_{vv}(n_1+l,n_2-k). \end{aligned} \end{equation*}

Bei zusätzlicher Stationarität ergibt sich

\begin{equation*} \begin{aligned} s_{yy}(\kappa) &=& \sum\limits_{l=-\infty}^{\infty}\sum\limits_{k=-\infty}^{\infty} h_0(-l)\, h_0(k)\, s_{vv}(\kappa-l-k). \end{aligned} \end{equation*}

Die Kovarianzfunktionen bzw. -folgen ergeben sich aus den Autokorrelationsfunktionen bzw. -folgen durch Abzug des quadrierten Mittelwertes, d.h. \(\psi_{yy}(\tau)\,=\,s_{yy}(\tau) - m_y^2\) bzw. \(\psi_{yy}(\kappa)\,= \,s_{yy}(\kappa) - m_y^2\)!

Signale und Korrelationsfunktionen bzw. -folgen:

SystemKont
\(v(t)\)
\(h_0(t)\)
\(v(n)\)
\(h_0(n)\)
\(y(t)\)
\(y(n)\)
\(s_{vv}(\tau)\)
\(s_{vv}(\kappa)\)
\(h_0(\tau)\)
\(h_0(\kappa)\)
\(h_0(\tau)\)
\(h_0(\kappa)\)
\(s_{vv}(\kappa)\)
\(s_{vv}(\tau)\)
\(s_{vy}(\tau)\)
\(s_{vy}(\kappa)\)
\(s_{yv}(\tau)\)
\(s_{yv}(\kappa)\)
\(h_0(-\tau)\)
\(h_0(-\kappa)\)
\(h_0(-\tau)\)
\(h_0(-\kappa)\)
\(s_{yy}(\tau)\)
\(s_{yy}(\kappa)\)
\(s_{yy}(\tau)\)
\(s_{yy}(\kappa)\)

Beispiel:

Beispiele:
Gegeben sei das folgende lineare, zeitinvariante System: \begin{equation*}y(t)\,\,=\,\,\frac{dv(t)}{dt}.\end{equation*} Dieses werde mit einem stationären Zufallsprozess mit dem Mittelwert \(m_v\) und der Autokorrelationsfunktion \(s_{vv}(\tau)\) angeregt. Bestimmen Sie
  • den Mittelwert am Systemausgang \(m_y\),
  • die Kreuzkorrelierten \(s_{vy}(\tau)\) und \(s_{yv}(\tau)\) sowie
  • die Autokorrelationsfunktion des Systemausgangs \(s_{yy}(\tau)\)
in Abhängigkeit des Mittelwertes \(m_v\) bzw. der Autokorrelierten \(s_{vv}(\tau)\) des Eingangsprozesses.

Kreuz- und Autoleistungsdichtespektren

Das Autoleistungsdichtespektrum des Ausgangssignals eines linearen, verschiebungsinvarianten Systems ergibt sich durch die Transformation der Autokorrelationsfunktion bzw. -folge. Aus Faltungen im Zeitbereich werden dabei Multiplikationen im Transformationsbereich.

Da hier Faltungen mit \(h_0(-\tau)\) bzw. \(h_0(-\kappa)\) vorkommen werden, sei zunächst auf folgenden Zusammenhang hingewiesen (die Impulsantworten werden reell angenommen):

\begin{equation*} \begin{aligned} \mathcal{F}\big\{ h_0(-t) \big\} &= \int_{t=-\infty}^{\infty} h_0(-t)\,e^{-j\omega t}\,dt \\ &\scriptsize{\color{grey}{\text{... Substitution von \(-t=\tilde t\,\,\)} \text{bzw.\(\,\,dt=-d\tilde t\,\,\)}\text{und anschließ}\text{endes Vereinfachen ...}}} \\ &= - \int\limits_{\tilde t=-\infty}^{\infty} h_0(\tilde t)\,e^{j\omega \tilde t}\,(-d\tilde t) \,\,=\,\, \int\limits_{\tilde t=-\infty}^{\infty} h_0(\tilde t)\,e^{j\omega \tilde t}\,d\tilde t \\ &\scriptsize{\color{grey}{\text{... Doppeltes Komplex-Konjugieren (nur fü}\text{r die komplexen Terme notwendig) ...}}} \\ &= \left[\,\int\limits_{\tilde t=-\infty}^{\infty} h_0(\tilde t)\,e^{-j\omega \tilde t}\,d\tilde t \,\right]^* \,\,=\,\, \Big[\mathcal{F}\big\{ h(\tilde t) \big\} \Big]^* \,\,=\,\,H^*(j\omega). \end{aligned} \end{equation*}

Eine analoge Rechnung liefert für zeitdiskrete Systeme:

\begin{equation*} \begin{aligned} \mathcal{F}\big\{ h_0(-n) \big\} &=& H^*(e^{j\Omega}). \end{aligned} \end{equation*}

Überträgt man nun die Ergebnisse aus den Zeitbereichsüberlegungen auf die Leistungsdichtespektren, so ergeben sich folgende Zusammenhänge...:

Das Betragsquadrat des Filterfrequenzgangs \(|H(j\omega)|^2\) bzw. \(|H(e^{j\Omega})|^2\) wird auch als Leistungsübertragungsfunktion bezeichnet. Die entsprechnde Bezeichnung im Zeitbereich

\begin{equation*} \begin{aligned} \big|H(j\omega)\big|^2 \,\,& \circ \!\! - \!\!\! - \!\! \bullet &\,\,h_0(\tau)\,\ast\,h_0(-\tau) \,\,=\,\,s_{h_0 h_0}(\tau), \\ \big|H(e^{j\Omega})\big|^2 \,\,& \circ \!\! - \!\!\! - \!\! \bullet &\,\,h_0(\kappa)\,\ast\,h_0(-\kappa) \,\,=\,\,s_{h_0 h_0}(\kappa) \end{aligned} \end{equation*}

lautet Autokorrelation der Impulsantwort.

Entsprechende Überlegungen können für Fourier-Reihen bzw. die DFT(hierbei ist dann die entstehende Zirkularität zu beachten) angestellt werden.

Auch im Laplace- bzw. z-Bereich können Entsprechungen zu den Zeitbereichsüberlegungen gefunden werden. Hier gilt dann:

\begin{equation*} \begin{aligned} S_{yy}(s) &=& H(s) \, H^*(-s) \, S_{vv}(s),\\ S_{yy}(z) &=& H(z) \, H^*\Big(\frac{1}{z^*}\Big) \, S_{vv}(z). \end{aligned} \end{equation*}




SystemKont
Spektren
Leistungsdichtespektren
...oben: kontinuierlich
...unten: diskret
\(V(j\omega)\)
\(V(e^{j\Omega})\)
\(H(j\omega)\)
\(H(e^{j\Omega})\)
\(Y(j\omega)\)
\(Y(e^{j\Omega})\)
\(S_{vv}(e^{j\Omega})\)
\(S_{vv}(j\omega)\)
\(H(j\omega)\)
\(H(e^{j\Omega})\)
\(S_{vy}(j\omega)\)
\(S_{vy}(e^{j\Omega})\)
\(H^*(j\omega)\)
\(H^*(e^{j\Omega})\)
\(S_{yy}(j\omega)\)
\(S_{yy}(e^{j\Omega})\)
\(S_{vv}(e^{j\Omega})\)
\(S_{vv}(j\omega)\)
\(H^*(j\omega)\)
\(H^*(e^{j\Omega})\)
\(S_{yv}(j\omega)\)
\(S_{yv}(e^{j\Omega})\)
\(H(j\omega)\)
\(H(e^{j\Omega})\)
\(S_{yy}(j\omega)\)
\(S_{yy}(e^{j\Omega})\)

Bemerkungen:

Verständnisfragen

Fragen: Antworten:

Wie würden Sie einen zeitlichen Versatz zwischen zwei ähnlichen Signalen suchen und wie können Sie die "Qualität" Ihres Ansatzes erfassen?

Ein zeitlicher Versatz zwischen zwei ähnlichen Signalen kann mit Hilfe der Kreuzkorrelation ermittelt werden. Ist diese verrauscht, ist die Qualität schlecht.

Mit welchen Messungen bzw. Schätzungen könnten Sie das Frequenzübertragungsverhalten eines Systems bestimmen?

Das Frequenzübertragungsverhalten kann durch die Berechnung der Kreuzkorrelation und der anschließenden Bildung der Fouriertransformierten bestimmt werden.

Wie würden Sie periodische Anteile in einem Signal suchen bzw. wie würden Sie die Periodendauer bestimmen?

Die Periodendauer kann durch die Bildung der Autokorrelierten ermittelt werden.

Wie wirkt sich eine Quantisierung (nichtlineares System!) auf die Wahrscheinlichkeitsdichte am Ausgang aus?

Die Signalteile werden im Ausgangssignal auf die Mitte quantisiert (mittig angeordnet) und unabhängiges Quantisierungsrauschen wird hinzu addiert.