Logo DSS

Signale and Systeme – Stochastische Signale und ihre Spektren

Inhalt

Stochastische Signale und ihre Spektren
Beschreibung stochastischer Signale
Häufigkeitsanalysen von realen Signalen
Spektren
Zufallsprozesse und Signale
Anschließende Verständnisfragen

Stochastische Signale und ihre Spektren

Beschreibung stochastischer Signale

Hintergrund

Bisher haben wir Signale der beiden "Formen"

\begin{equation*} \begin{aligned} v(t)\,\in\,\mathbb{C}, & \textrm{mit}\,\,t\,\in\,\mathbb{R}\,\,\textrm{kontiuierlich}, \\ v(n)\,\in\,\mathbb{C}, & \textrm{mit}\,\,n\,\in\,\mathbb{Z}\,\,\textrm{diskret} \end{aligned} \end{equation*}

behandelt. Hierbei konnten wir einen funktionalen Zusammenhang (\(t,\,n \,\rightarrow \,v\)) angeben. In diesem Fall bezeichnet man die Signale \(v(t)\) bzw. \(v(n)\) als determiniert.

Kann ein solcher Zusammenhang nicht (ohne weiteres) angegeben werden, so bezeichnet man die Signale als stochastisch. Für stochastische Signale können nur noch Wahrscheinlichkeitsaussagen (z.B. über den zu erwartenden Amplitudenbereich oder über das mittlere zeitliche Verhalten) getroffen werden.

Für die Einführung des Wahrscheinlichkeitsbegriffes und der zugehörigen Theoreme sei auf die Mathematikvorlesungen verwiesen. Hier werden nur die später benötigten Zusammenhänge eingeführt.

Durch die Einführung von stochastischen Signalen bzw. Zufallsprozessen können viele technisch vorkommende Signale realitätsnäher als mit determinierten Signalen beschrieben werden.

Motivation der verwendeten stochastischen Kenngrößen

Bisher haben wir determinierte Signale \(v(t)\) bzw. \(v(n)\) betrachtet. Hierbei haben wir entweder

Den Signalverlauf konnten wir durch überlagerte Elementarsignale, z.B. \(Ve^{jwt}\),\(Ve^{st}\),\(Ve^{j{\Omega}n}\) oder \(Vz^n\) darstellen. Dies führte auf das Spektrum eines Signals - grob konnte hier der Zusammenhang

"Schnelle Änderung \(\Longrightarrow\) hohe Frequenzen" (und umgekehrt)

hergestellt werden.

Wunsch

Es besteht nun der Wunsch, stochastische Signale auf ähnliche Weise zu beschreiben.

Stochastische Beschreibungsgrößen

In Anlehnung an die Beschreibung von deterministischen Signalen verwendet man für stochastische Signale

Im Weiteren werden wir nun

Primäre stochastische Kenngrößen

Wahrscheinlichkeitsverteilung:

Definition der Wahrscheinlichkeitsverteilung:
\begin{equation} F_v(x,t) = P\big(v(t) \le x \big),\\ F_v(x,n) = P\big(v(n) \le x \big). \end{equation}

Bedeutung: Wahrscheinlichkeit, dass \(v(...)\) kleiner oder gleich der Schwelle \(x\) ist. Dies ist reellwertig definiert - für komplexe Größen muss eine getrennte Betrachtung für den Real- und Imaginärteil geschehen (bzw. für Betrag und Phase).

Aus der Wahrscheinlichkeitsverteilung ergibt sich abgeleitet die Wahrscheinlichkeitsdichte:

Definition der Wahrscheinlichkeitsdichte:
\begin{equation} f_v(x,t) = \frac{\partial F_v(x,t)}{\partial x},\\ f_v(x,n) = \frac{\partial F_v(x,n)}{\partial x}. \end{equation}

Bei quantisierten Signalen (digitalen Signalen) ist \(v_q(...)\) wertdiskret, d.h. die Wahrscheinlichkeitsverteilungsfunktion enthält Sprünge (daraus entstehen Dirac-Impulse in der Wahrscheinlichkeitsdichtefunktion).

SystemKont

Die zuvor genannten eindimensionalen Beschreibungen können auch für mehrdimensionale Signale und unterschiedliche Zeitpunkte erweitert werden. Insebesondere ist dabei der zweidimensionale Fall von Interesse.

Hier gilt für die Verbund-Wahrscheinlichkeitsverteilung:

\begin{equation*} \begin{aligned} F_{v_1 v_2}(x_1,x_2,t_1,t_2) &= P\Big(\big(v_1(t_1) \le x_1 \big)\,\wedge\,\big(v_2(t_2) \le x_2 \big)\Big),\\ F_{v_1 v_2}(x_1,x_2,n_1,n_2) &= P\Big(\big(v_1(n_1) \le x_1 \big)\,\wedge\,\big(v_2(n_2) \le x_2 \big)\Big). \end{aligned} \end{equation*}

Entsprechend gilt dann für die Verbund-Wahrscheinlichkeitsdichte:

\begin{equation*} \begin{aligned} f_{v_1 v_2}(x_1,x_2,t_1,t_2) &= \frac{\partial^2 F_{v_1 v_2}(x_1,x_2,t_1,t_2)}{\partial x_1\,\partial x_2},\\ f_{v_1 v_2}(x_1,x_2,n_1,n_2) &= \frac{\partial^2 F_{v_1 v_2}(x_1,x_2,n_1,n_2)}{\partial x_1\,\partial x_2}. \end{aligned} \end{equation*}



SystemKont
\(v_1(t_1), v_1(n_1)\)
\( v_2(t_2), v_2(n_2) \)
\((x_1, x_2)\)
Ereignisraum

Einen (wichtigen) Sonderfall bilden stochastische Signale (bzw. Zufallsprozesse), bei denen die Wahrscheinlichkeit in allen Beobachtungszeitpunkten \(t\) bzw. \(n\) gleich ist, d.h. es gilt für den eindimensionalen Fall:

\begin{equation*} \begin{aligned} F_v(x,t) \,=\, F_v(x),\quad F_v(x,n) \,=\, F_v(x),\quad f_v(x,t) \,=\, f_v(x),\quad f_v(x,n) \,=\, f_v(x). \end{aligned} \end{equation*}

Man nennt solche Zufallsprozesse stationär. Allgemein (d.h. dann auch für den mehrdimensionalen Fall) heißen Zufallsprozesse verbunden stationär, wenn ihre gemeinsamen statistischen Eigenschaften invariant gegenüber Verschiebungen der Zeit sind.

Für den zweidimensionalen Fall hängen die Verbund-Wahrscheinlichkeitsverteilung und die Verbund-Wahrscheinlichkeitsdichte dann nur noch von der Differenz der Zeitargumente ab:

\begin{equation*} \begin{aligned} F_{v_1 v_2}(x_1,x_2,t_1,t_2) &=& F_{v_1 v_2}(x_1,x_2,t_2 - t_1), \\ F_{v_1 v_2}(x_1,x_2,n_1,n_2) &=& F_{v_1 v_2}(x_1,x_2,n_2 - n_1), \\ f_{v_1 v_2}(x_1,x_2,t_1,t_2) &=& f_{v_1 v_2}(x_1,x_2,t_2 - t_1), \\ f_{v_1 v_2}(x_1,x_2,n_1,n_2) &=& f_{v_1 v_2}(x_1,x_2,n_2 - n_1). \end{aligned} \end{equation*}

Über sog. Randdichten bzw. Randverteilungen kann man den Zusammenhang zwischen ein- und zweidimensionalen Wahrscheinlichkeitsverteilungen herstellen. Eine Randdichte ist dabei wie folgt definiert und die Randverteilung ergibt sich durch Integration der Randdichte:

Definition der Randdichte und Randverteilung:
\begin{equation} f_{v_1}(x_1) = \int\limits_{x_2 = -\infty}^{\infty} f_{v_1 v_2}(x_1,x_2)\,d x_2\\ F_{v_1}(x_1) = \int\limits_{u = -\infty}^{x_1} f_{v_1}(u)\,du. \end{equation}

Ganz allgemein wird durch die Berechnung von Randdichten jeweils ein Signal aus der Wahrscheinlichkeitsdichte bzw. der Wahrscheinlichkeitsverteilung "entfernt".

Für statistisch unabhängige, stationäre, bivariate Zufallsprozesse gilt:

\begin{equation*} \begin{aligned} f_{v_1 v_2}(x_1,x_2) &=& f_{v_1}(x_1)\,\cdot\,f_{v_2}(x_2). \end{aligned} \end{equation*}

Beispiel:



Beispiele:
SystemKont
\(f_{v_{2}}(v_2)\)
\( v_2\)
\(v_2\)
\(v_1\)
\(f_{v_{1}v_{2}}(v_1,v_2)=\frac{1}{2}\)
\(f_{v_1 v_2}(v_1,v_2) = 0\)
\(f_{v_1}(v_1)\)
\(v_1\)
\(v_2\)
\(f_{v_2}(v_2)\)
\(1/\sqrt{2}\)
\(v_2\)
\(v_1\)
\(f_{v_1}(v_1)\)
\(1/\sqrt{2}\)
\(v_1\)
\(f_{v_1 v_2}(v_1,v_2) = \frac{1}{2}\)
\(f_{v_1 v_2}(v_1,v_2) = 0\)
\(-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\)
\(-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\)
Was können Sie über die statistische Unabhängigkeit der beiden zwei-dimensionalen Zufallsprozesse bzw. -variablen aussagen?
Zum Anzeigen oder Verbergen der Lösung bitte den Button rechts betätigen.

Im linken Beispiel liegt keine statistische Unabhängigkeit vor. Im rechten Beispiel liegt statistische Unabhängigkeit vor.

Sekundäre stochastische Kenngrößen

Oft ist eine (an sich wünschenswerte, weil vollständige) Beschreibung durch eine (im Allgemeinen mehrdimensionale) Wahrscheinlichkeitsdichte nicht verfügbar oder auch nicht erforderlich. Dann verwendet man Teilbeschreibungen der Prozesse durch Kenngrößen, die mit der Wahrscheinlichkeitsdichte zusammenhängen oder gar Parameter davon sind. Der Kernbegriff sind hier die sog. Erwartungswerte.

Allgemeine Definitionen: Für den Erwartungswert einer Funktion eines univariaten Zufallsprozesses gilt:

Definition Erwartungswert eines univariaten Zufallsprozesses:
\begin{equation} \textrm{E}\Big\{g\big(v(t)\big)\Big\} \,\,=\,\, \int\limits_{x = -\infty}^{\infty} g(x)\,f_{v}(x,t)\,dx \end{equation}

Entsprechend gilt für bivariate Zufallsprozesse:

Definition Erwartungswert eines bivariaten Zufallsprozesses:
\begin{equation} \textrm{E}\Big\{g\big(v_1(t_1),v_2(t_2)\big)\Big\} \,\,=\,\, \int\limits_{x_1=-\infty} ^{\infty}\int\limits_{x_2 = -\infty}^{\infty} g(x_1,x_2)\,f_{v_1 v_2}(x_1,x_2,t_1,t_2)\,dx_1\,dx_2 \end{equation}

Die Berechnung für zeitdiskrete Zufallsprozesse geschieht vollkommen analog.

Anmerkungen:

Spezielle Erwartungswerte:

Für den eindimensionalen Fall sind folgende Erwartungswerte von besonderer Bedeutung:

Scharmittelwert bzw.erstes Moment:

Definition Scharmittelwert bzw. erstes Moment:
\begin{equation} \textrm{E}\big\{ v(...) \big\} \,\,=\,\, \int\limits_{x = -\infty}^{\infty} x\,f_{v}(x,...)\,d x \,\,=\,\,m_v(...)\,\,=\,\,m_v^{(1)}(...)\\ \end{equation}

Die drei Punkte "..." stehen entweder für \(t\) oder für \(n\).

Anschauliche Deutung: Mittelung unter Beachtung der Häufigkeit, ähnlich wie bei der Berechnung einer Durchschnittsnote.

Beispiel:

Beispiele:
Zufallsprozess mit sinusförmigen Musterfunktionen und zufälliger Phase: \begin{equation*} \begin{aligned} v(t)&=\sin (\omega_0t+\varphi) \\ f_\varphi(\varphi)&=&\left \{ \begin{array}{ll} 2/\pi, & \mbox{füur } 0 \leq \varphi \leq \pi/2, \\ 0, & \mbox{sonst.} \end{array} \right. \end{aligned} \end{equation*}
Bestimmen Sie den linearen Mittelwert!
SystemKont
Zum Anzeigen oder Verbergen der Lösung bitte den Button rechts betätigen.
\begin{equation*} \begin{aligned} \textrm{E}\big\{ v( \varphi(t) ) \big\} &= \int\limits_{x = -\infty}^{\infty} v(x)\,f_{\varphi}(x)\,d x \\ &=\int\limits_{x = -\infty}^{\infty} sin(\omega_0t+x){\cdot}f_{\varphi}(x)d x\\ &=\int\limits_{x=0}^{\frac{\pi}{2}}sin(\omega_0t+x)\cdot\frac{2}{\pi}dx\\ &=\frac{2}{\pi} \left( \int\limits_{x=0}^{\frac{\pi}{2}}sin(\omega_0t)cos(x)dx +\int\limits_{x=0}^{\frac{\pi}{2}}cos(\omega_0t)sin(x)dx \right)\\ &= \frac{2\sqrt{2}}{\pi}\sin{\left( \omega_0t + \frac{\pi}{4} \right)} \end{aligned} \end{equation*}


Der quadratische Mittelwert bzw. das zweites Moment wird beschrieben durch:

Definition quadratischer Mittelwert:
\begin{equation} \textrm{E}\big\{ v^2(...) \big\} \,\,=\,\, \int\limits_{x = -\infty}^{\infty} x^2\,f_{v}(x,...)\,d x \,\,=\,\,m_v^{(2)}(...) \end{equation}

Die Varianz bzw. das zweite zentrale Moment wird definiert durch:

Definition Varianz:
\begin{equation} \textrm{E}\Big\{ \big(v(...)-m_v\big)^2 \Big\} \,\,=\,\, \int\limits_{x = -\infty} ^{\infty} (x-m_v)^2\,f_{v}(x,...)\,d x \,\,=\,\,\sigma_v^2(...) \end{equation}

Anschaulich kann \(m_v\) als der Gleichanteil eines Signals betrachtet werden. Das Quadrat davon ist dann die "Gleichanteilsleistung". \({\sigma}_v^2\) beschreibt die "Wechselanteilsleistung". Das zweite Moment \(m_v^{(2)} \) steht dann für die Gesamtleistung, also die Summe aus beiden. Für diese Ürberlegung muss Ergodizität (Erklärung folgt später) voraus gesetzt werden!

Der Zusammenhang zwischen zweitem Moment und zweitem zentralen Moment kann folglich gezeigt werden: \begin{equation*} \begin{aligned} \textrm{E}\Big\{ \big(v(t)-m_v(t)\big)^2 \Big\} &= \textrm{E}\big\{ v^2(t) - 2\,v(t)\,m_v(t) + m_v^2(t) \big\} \\ &= \underbrace{\textrm{E}\big\{ v^2(t) \big\} }_{=\,m_v^{(2)}(t)} - 2\,m_v(t)\, \underbrace{\textrm{E}\big\{ v(t)\big\}}_{=\,m_v(t)} + m_v^2(t)\\ &= m_v^{(2)}(t) - m_v^2(t). \end{aligned} \end{equation*}

Anmerkungen:

Für den zweidimensionalen Fall sind folgende (Produkt-) Erwartungswerte von besonderer Bedeutung:

Kreuzkorrelationsfunktion bzw. -folge:

Definition Kreuzkorrelationsfunktion bzw. -folge:
\begin{equation} \textrm{E}\big\{ v_1(t)\,v_2(t+\tau) \big\} = \int\limits_{v_1=-\infty}^{\infty} \int\limits_{v_2=-\infty}^{\infty} v_1\,v_2\,f_{v_1 v_2}(v_1,v_2,\tau) \,dv_1\,dv_2 \,\,=\,\,s_{v_1 v_2}(\tau),\\ \textrm{E}\big\{ v_1(n)\,v_2(n+\kappa) \big\} = \int\limits_{v_1=-\infty}^{\infty}\int\limits_{v_2=-\infty}^{\infty} v_1\,v_2\,f_{v_1 v_2}(v_1,v_2,\kappa) \,dv_1\,dv_2 \,\,=\,\,s_{v_1 v_2}(\kappa). \end{equation}

Für die oben beschriebene Definition wurde Stationarität vorausgesetzt (dies geht natürlich auch ohne diese Annahme, dann aber mit zwei Zeitargumenten).

Analog zur Erweiterung von Momenten in zentrale Momente werden die Kreuzkovarianzfunktion bzw. -folge definiert:

Definition Kreuzkovarianzfunktion bzw. -folge:
\begin{equation} \textrm{E}\Big\{ \big(v_1(t) - m_{v_1}\big)\,\big(v_2(t+\tau)-m_{v_2}\big) \Big\} \\ \qquad\qquad = \int\limits_{v_1=-\infty}^{\infty}\int\limits_{v_2=-\infty}^{\infty} (v_1 - m_{v_1})\,(v_2-m_{v_2})\,f_{v_1 v_2}(v_1,v_2,\tau) \,dv_1\,dv_2 \,\,=\,\,\psi_{v_1 v_2}(\tau), \\ \textrm{E}\Big\{ \big(v_1(n) - m_{v_1}\big)\,\big(v_2(n+\kappa)-m_{v_2}\big) \Big\}\\ \qquad\qquad = \int\limits_{v_1=-\infty}^{\infty}\int\limits_{v_2=-\infty}^{\infty} (v_1 - m_{v_1})\, (v_2-m_{v_2})\,f_{v_1 v_2}(v_1,v_2,\kappa) \,dv_1\,dv_2 \,\,=\,\,\psi_{v_1 v_2}(\kappa) \end{equation}

Auch hier kann auf einfache Weise folgender Zusammenhang hergestellt werden: \(\psi_{v_1 v_2}(..) \,\,=\,\, s_{v_1 v_2}(...) - m_{v_1}\,m_{v_2}\)!

Bedeutung von Kreuzkorrelationsfunktionen (bzw. -folgen): Man verrechnet hiermit den (Schar-) Mittelwert des Produktes zweier Signale zu den Zeitpunkten \(t\) und \(t+\tau\) bzw. \(n\) und \(n+\kappa\). Wenn...

Zusammenfassend kann man sagen, dass Korrelationen und Kovarianzen die Ähnlichkeit zweier Signale im Abstand \(t\) bzw. \(\kappa\) zueinander beschreiben.

Bei der Betrachtung eines einzelnen Signals gilt: \(v_1(...)=v_2(...)=v(...)\). In diesem Fall wird die Ähnlichkeit eines Signals zu sich selbst bei verschiedenen Versätzen \(\tau\) bzw. \(\kappa\) beschrieben.

Die Kreuzkorrelationsfunktion bzw. -folge wird nun zur Autokorrelationsfunktion bzw. -folge. Sie ist wie folgt definiert:

Definition Autokorrelationsfunktion bzw. -folge:
\begin{equation} \textrm{E}\big\{ v(t)\,v(t+\tau) \big\} = \int\limits_{v_1=-\infty}^{\infty} \int\limits_{v_2=-\infty}^{\infty} v_1\,v_2\,f_{vv}(v_1,v_2,\tau) \,dv_1\,dv_2 \,\,=\,\,s_{vv}(\tau), \\ \textrm{E}\big\{ v(n)\,v(n+\kappa) \big\} = \int\limits_{v_1=-\infty}^{\infty} \int\limits_{v_2=-\infty}^{\infty} v_1\,v_2\,f_{vv}(v_1,v_2,\kappa) \,dv_1\,dv_2 \,\,=\,\,s_{vv}(\kappa) \end{equation}

Für die Auto-Kovarianzfunktion bzw. -folge gilt wieder entsprechend: \begin{equation*} \begin{aligned} \psi_{vv}(..) \,\,=\,\, s_{vv}(...) - m_{v}^2. \end{aligned} \end{equation*}

Notwendige Änderungen zur Erfassung komplexer Signale \(v(t) \,=\, v_{\text{re}}(t) + j\,v_{\text{im}}(t) \,\in\,\mathbb{C}\):

Für die oben genannten Größen sind nun zweidimensionale Verbunddichten für \(v_{\text{re}}(t)\) bzw. \(v_{\text{im}}(t)\) notwendig.

Für den zeitdiskreten Fall gibt es entsprechende Definitionen.

Auch die Korrelationsgrößen sind für komplexe Signale definiert.

Für die Korrelationsfunktion gilt: \begin{equation*} \begin{aligned} s_{v_1 v_2}(\tau) \,\,=\,\, \textrm{E} \big\{ v_1(t)\,v_2^*(t+\tau)\big\}. \end{aligned} \end{equation*}

Die Autokorrelationsfunktion wird für komplexe Signale wie folgt definiert: \begin{equation*} \begin{aligned} s_{vv}(\tau) \,\,=\,\, \textrm{E} \big\{ v(t)\,v^*(t+\tau)\big\}. \end{aligned} \end{equation*}

Für die oben genannten Größen sind nun vierdimensionale Verbunddichten (für die Signalanteile \(v_{1,\text{re}}(t), v_{1,\text{im}}(t), v_{2,\text{re}}(t)\) bzw. \(v_{2,\text{im}}(t)\)) notwendig.

Auch hier gibt es für den zeitdiskreten Fall natürlich entsprechende Definitionen. Gleiches gilt für den instationären Fall.

Spezielle Werte von Autokorrelationsfunktionen bzw. -folgen und Autokovarianzfunktionen bzw. -folgen sind:

Die Definitionen für den zeitdiskreten Fall sind entsprechend.

Weiterhin kann man zeigen, dass die Korrelationsgrößen im stationären Fall durch den Wert bei Null nach oben begrenzt sind: \begin{equation*} \begin{aligned} s_{vv}(0) &\ge& \big|s_{vv}(\tau)\big|\,\,\forall\,\,\tau, \\ \psi_{vv}(0) &\ge& \big|\psi_{vv}(\tau)\big|\,\,\forall\,\,\tau,\\ s_{vv}(0) &\ge& \big|s_{vv}(\kappa)\big|\,\,\forall\,\,\kappa, \\ \psi_{vv}(0) &\ge& \big|\psi_{vv}(\kappa)\big|\,\,\forall\,\,\kappa. \end{aligned} \end{equation*}

Herleitung:

Gegeben: \(x(t)\) sei ein reeller Zufallsprozess
Gesucht: Maximalwerte der AKF \begin{equation*} \begin{aligned} 0 &\leq\,\textrm{E}\big\{\underbrace{\big(ax(t_1)-x(t_2)\big)^2}_{\text{frei gewä}\text{hlt}}\big\} \\ 0 &\leq\,a^2s_{xx}^2(t_1,t_1)-2as_{xx}(t_1,t_2)+s_{xx}(t_2,t_2)\,\,\,\,\big|{\cdot}s_{xx}(t_1,t_1)\\ 0 &\leq\,a^2s_{xx}^2(t_1,t_1)-2as_{xx}(t_1,t_2){\cdot}s_{xx}(t_1,t_1)+s_{xx}^2(t_1,t_2) -s_{xx}^2(t_1,t_2)+s_{xx}(t_2,t_2)s_{xx}(t_1,t_1)\\ 0 &\leq\,\underbrace{\big(as_{xx}(t_1,t_1)-s_{xx}(t_1,t_2)\big)^2}_{=0}+s_{xx}(t_2,t_2)s_{xx}(t_1,t_1)-s_{xx}^2(t_1,t_2)\\ s_{xx}^2(t_1,t_2)&\leq\,s_xx(t_1,t_1)s_{xx}(t_2,t_2)\\ s_{xx}^2(\tau)&\leq\,s_xx^2(0)\\ s_{xx}(\tau)&\leq\,s_{xx}(0) \end{aligned} \end{equation*}

Demnach hat die Autokorrelierte an der Stelle \(t=0\) ihr Maxima!

Die Autokorrelation und die Autokovarianz beschreiben die Ähnlichkeit des Signals \(v(...)\) mit sich selbst nach einer Verschiebung um \(\tau\) bzw. \(\kappa\). Die Ähnlichkeit ist natürlich maximal für \(\tau=0\) bzw. \({\kappa}=0\), weil dann identische Signale miteinander verglichen werden.

Soll hier ein Matlab-Beispiel hin?

Statistische Unabhängigkeit zwischen den Zufallsprozessen \(v_1(...)\) und \(v_2(...)\) liegt vor, wenn die Verbundwahrscheinlichkeitsdichte seperierbar ist.

Für kontinuierliche Zufallsprozesse muss dann gelten:

Für diskrete Zufallsprozesse gilt:

Aus statistischer Unabhängigkeit ergeben sich Folgen für Kreuzkorrelation und Kreuzkovarianz. Durch Einsetzen der Bedingung für statistische Unabhängigkeit in die Definition der Kreuzkorrelationsfunktion ergibt sich: \begin{equation*} \begin{aligned} s_{v_1 v_2}(t_1,t_2) &= \int\limits_{v_1=-\infty}^{\infty}\int\limits_{v_2=-\infty} ^{\infty} v_1\,v_2\,f_{v_1}(v_1,t_1)\,f_{v_2}(v_2,t_2)\,dv_1\,dv_2 \\ &= \underbrace{\int\limits_{v_1=-\infty}^{\infty} v_1\,f_{v_1}(v_1,t_1)\,dv_1}_{m_{v_1}(t_1)} \,\underbrace{\int\limits_{v_2=-\infty}^{\infty}v_2\,f_{v_2}(v_2,t_2)\,dv_2}_{m_{v_2}(t_2)} \\ &= m_{v_1}(t_1)\,m_{v_2}(t_2). \end{aligned} \end{equation*}

Die Bedingung \(s_{v_1 v_2}(t_1,t_2) \,=\, m_{v_1}(t_1)\,m_{v_2}(t_2)\) (kontinuierlich) bzw. \(s_{v_1 v_2}(n_1,n_2) \,=\, m_{v_1}(n_1)\,m_{v_2}(n_2)\) (diskret) wird Unkorreliertheit genannt. Unkorreliertheit folgt unmittelbar aus statistischer Unabhängigkeit - aber nicht umgekehrt!

Weiterhin folgt aus Unkorreliertheit für die Kreuzkovarianzfunktion bzw. -folge: \begin{equation*} \begin{aligned} \psi_{v_1 v_2}(t_1,t_2) \,\,=\,\, 0. \end{aligned} \end{equation*}

Zu beachten ist außerdem, dass statistische Unabhängigkeit bzw. Unkorreliertheit oder Orthogonalität für alle \(\tau\) bzw. \(\kappa\) (bzw. alle \((t_1,t_2)\) und \((n_1,n_2)\)) gelten kann, oder nur für bestimmte Zeitpunkte bzw. Zeitspannen.

Sollte die Kreuzkorrelationsfunktion bzw. -folge Null sein \begin{equation*} \begin{aligned} s_{v_1 v_2}(t_1,t_2) \,\,=\,\, 0,\\ \end{aligned} \end{equation*} so nennt man dies Orthogonalität zwischen den Prozessen \(v_1(...)\) und \(v_2(...)\). Dies kann z.B. dadurch erreicht werden, dass einer der beiden Prozesse mittelwertfrei ist und Unkorreliertheit vorliegt.

Es sei noch einmal daraufhingewiesen, dass aus statistischer Unabhängigkeit automatisch Unkorreliertheit folgt, nicht aber umgekehrt! Unkorreliertheit und Orthogonalität sind "schwächere" Eigenschaften (bzw. Forderungen), die aber für viele Probleme bzw. Lösungsansätze ausreichen.

Die bisherigen Überlegungen lassen sich auch auf ein einzelnes Signal übertragen. Hier gilt Unkorreliertheit , etc. dann aber immer nur für bestimmte Zeitpunkte- zumindest der Versatz Null ist immer gesondert zu betrachten. Für ein (mit sich selbst) unkorreliertes Signal gilt dann für die Autokorrelationsfunktion bzw. -folge: \begin{equation*} \begin{aligned} s_{vv}(...) &= \left\{ \begin{array}{ll} m_v^2 + \sigma_v^2,& \textrm{falls}\,\,\tau,\kappa\,=\,0, \\ m_v^2, & \textrm{sonst,} \end{array} \right.\\ &= m_v^2 + \sigma_v^2\,\gamma_0(...). \end{aligned} \end{equation*}

Für die Autokovarianzfunktion bzw. -folge gilt dann: \begin{equation*} \begin{aligned} \psi_{vv}(...) &= \left\{ \begin{array}{ll} \sigma_v^2,& \textrm{falls}\,\,\tau,\kappa\,=\,0, \\ 0, & \textrm{sonst,} \end{array} \right. \\ &= \sigma_v^2\,\gamma_0(...). \end{aligned} \end{equation*}



SystemKont
\(s_{vv}(\tau)\)
\( m_v^2+{\sigma}_v^2 \)
\(m_v^2\)
\(\psi_{vv}(\tau)\)
\( \sigma_v^2 \)
\( \tau \)
\( \tau \)

Beispiele

Summenprozess:

Häufig ist die Addition zweier Zufallsprozesse von Interesse (unter Umständen auch die Addition vieler bzw. unendlich vieler Signale, die mit Faktoren gewichtet werden, z.B. bei der Filterung bzw. Faltung). Wir betrachten hier zunächst den einfachsten Fall, d.h. die Addition zweier stationärer Zufallsprozesse: \begin{equation*} \begin{aligned} y(n_1,n_2) \,\,=\,\, v_1(n_1) + v_2(n_2) \,\,=\,\,y(n,\kappa), \end{aligned} \end{equation*}

mit \(n_1=n, n_2=n_1+\kappa =n+\kappa\). Gegeben sei dabei die Verbunddichte \(f_{v_1v_2}(v_1,v_2,\kappa)\). Daraus können z.B. folgende Größen \(f_{v_1}(v_1),\,f_{v_2}(v_2),\,m_{v_1},\,m_{v_2},\,\sigma_{v_1}^2,\,\sigma_{v_2}^2,\,...\) bestimmt werden. Gesucht ist nun die Wahrscheinlichkeitsdichte \(f_y(y,\kappa)\) oder zumindest die Größen \(m_y\) und \(\sigma_y^2\).

Dieses Beispiel wird mit diskreten Zufallsprozessen gerechnet. Der Übergang auf kontinuierliche Prozesse ist aber recht einfach möglich.

Der direkte Weg wäre zunächst die Wahrscheinlichkeitsdichte \(f_y(y,\kappa)\) zu bestimmen und daraus alle abgeleiteten Größen wie Mittelwert oder Varianz zu bestimmen. Da diese Dichte aber im Allgemeinen nicht einfach anzugeben ist (das Problem wird im weiteren Verlauf aufgegriffen), werden zunächst einige abgeleitete Größen bestimmt.

Bestimmung des Mittelwertes \(m_y\): \begin{equation*} \begin{aligned} m_y &= \textrm{E}\big\{ y(n,\kappa) \big\} \,\,=\,\, \textrm{E}\big\{ v_1(n) + v_2(n+\kappa) \big\} \\ &\scriptsize{\color{grey}{\text{... Einsetzen der Definition des Erwartungswertes ... }}} \\ &= \int\limits_{v_1} \int\limits_{v_2} (v_1+v_2)\,f_{v_1 v_2}(v_1,v_2,\kappa)\,dv_1\,dv_2 \\ &\scriptsize{\color{grey}{\text{... Aufspalten des Integrals und Einsetzen der Definition der Randdichte ... }}} \\ &= \int\limits_{v_1} v_1 \underbrace{\int\limits_{v_2} f_{v_1 v_2}(v_1,v_2,\kappa)\,dv_2}_{f_{v_1}(v_1)}\,dv_1 + \int\limits_{v_2} v_2 \underbrace{\int\limits_{v_1} f_{v_1 v_2}(v_1,v_2,\kappa)\,dv_1}_{f_{v_2}(v_2)}\,dv_2 &\scriptsize{\color{grey}{\text{... Einsetzen der Definition des Mittelwertes ... }}} \\ &= \underbrace{\int\limits_{v_1} v_1 f_{v_1}(v_1)\,dv_1}_{m_{v_1}} + \underbrace{\int\limits_{v_2} v_2 f_{v_2} (v_2)\,dv_2}_{m_{v_2}} \,\,=\,\, m_{v_1} + m_{v_2}. \end{aligned} \end{equation*}

Dieses Ergebnis (\(m_y=m_{v_1}+m_{v_2})\) gilt ohne jegliche Zusatzbedingung!

Als nächstes bestimmen wir das zweite Moment (den quadratischen Mittelwert) \(m_y^{(2)}\)und die Varianz \(\sigma_y^2\) (das zweite zentrale Moment): \begin{equation*} \begin{aligned} m_y^{(2)}(\kappa) &= \textrm{E}\big\{ y^2(n,\kappa) \big\} \,\,=\,\, \textrm{E}\big\{ v_1^2(n) + 2\,v_1(n)\,v_2(n+\kappa)+v_2^2(n+\kappa) \big\} \\ &= \underbrace{\textrm{E}\big\{ v_1^2(n) \big\}}_{m_{v_1}^{(2)}} +2\,\underbrace{\textrm{E}\big \{ v_1(n)\,v_2(n+\kappa) \big\}}_{s_{v_1 v_2}(\kappa)}+ \underbrace{\textrm{E}\big\{ v_2^2(n+\kappa) \big\}}_{m_{v_2}^{(2)}} \\ &= m_{v_1}^{(2)} + m_{v_2}^{(2)} + 2\,s_{v_1 v_2}(\kappa). \end{aligned} \end{equation*}

Für die Varianz findet sich analog: \begin{equation*} \begin{aligned} \sigma_y^2(\kappa) &=& \sigma_{v_1}^2 + \sigma_{v_2}^2 + 2\,\psi_{v_1 v_2}(\kappa). \end{aligned} \end{equation*}

Zu beachten ist hierbei, dass die quadratischen Kenngrößen nun vom Versatz abhängen, d.h. das Summationsergebnis ist nicht mehr stationär. Außerdem gilt hier nun nicht mehr die einfache Addition der Einzelleistungen, es muss auch die Korrelation bzw. Kovarianz zwischen den Einzelsignalen berücksichtigt werden!

Setzt man unkorrelierte Signale voraus, d.h. es gilt \(\psi_{v_1 v_2}(\kappa)\,=\,0\), so addieren sich nun auch die Varianzen \begin{equation*} \begin{aligned} \sigma_y^2 &=& \sigma_{v_1}^2 + \sigma_{v_2}^2. \end{aligned} \end{equation*}

Die Abhängigkeit von \(\kappa\) verschwindet ebenfalls. Hierzu ist aber die Zusatzbedingung der Unkorreliertheit notwendig.

Setzt man statistische Unabhängigkeit der Signale \(v_1(n)\) und \(v_2(n+\kappa)\) für alle \(\kappa\) voraus (dies schließt Unkorreliertheit ein), so kann man auch die Wahrscheinlichkeitsdichte \(f_y(y)\) angeben: \begin{equation*} \begin{aligned} f_{y}(y)&=\,\,f_{v_1}(y)\,\ast\,f_{v_2}(y).\\ &\scriptsize{\color{grey}{\text{... Faltung der beiden Randdichten ... }}} \end{aligned} \end{equation*}

Definition der charakteristischen Funktion:
\begin{equation} C_v(\omega) \,\,= \int\limits_{v=-\infty}^{\infty} f_v(v)\,e^{j\omega v} dv \,\,=\,\,\textrm{E}\big\{ e^{j\omega v}\big\} \end{equation}

Hierbei gilt folgende Anlehnung an die Fouriertransformation: \begin{equation*} \begin{aligned} \mathcal{F}\big\{ f_v(v) \big\} \,\,= \int\limits_{v=-\infty}^{\infty} f_v(v)\, e^{-j\omega v} dv \,\,=\,\,C_v(-\omega). \end{aligned} \end{equation*}

Die charakteristische Funkion \(C_v(w)\) beschreibt den Prozess \(v(...)\) völlig gleichwertig wie die Wahrscheinlichkeitsdichtefunktion, da die Fourier-Transformation eindeutig umkehrbar ist.

Herleitung der Beziehung \(f_{y}(y)\,\,=\,\,f_{v_1}(y)\,\ast\,f_{v_2}(y)\):

Gegeben: \(C_s(w)\,\,=\int\limits_{s=-\infty}^{\infty}f_s(s)\,e^{jws}\,ds\)
Gesucht: \(f_s(s)\) \begin{equation*} \begin{aligned} f_s(s)&=\,\frac{1}{2\pi}\,\int\limits_{w=-\infty}^{\infty}C_s(w)\,e^{-jws}\,dw\\ s(t)&=\,v_1(t)+v_2(t) \end{aligned} \end{equation*}

\(v_1(t)\) und \(v_2(t)\) sind dabei statistisch unabhängig. \begin{equation*} \begin{aligned} C_s(w) &=\,\textrm{E}\big\{e^{jws}\big\}\, =\,\textrm{E}\big\{e^{jw(v_1+v_2)}\big\}\,\\ &= \, \int\limits_{v_1}\int\limits_{v_2}e^{jwv_1}\,e^{jwv_2}\, f_{v_1v_2}(v_1,v_2)\,dv_1\, dv_2 \,\,=\,\int\limits_{v_1}e^{jwv_1}f_{v_1}(v_1)\,dv_1\,\cdot\,\int\limits_{v_2}e^{jwv_2}f_{v_2}\,dv_2\\ &= C_{v_1}(w)\,\cdot\,C_{v_2}(w) \end{aligned} \end{equation*}

\begin{equation*} \begin{aligned} f_s(s) &= \frac{1}{2\pi}\,\int\limits_{w=-\infty}^{\infty}C_s(w)\,e^{-jws}\,dw \,\,=\,\frac{1}{2\pi}\,\int\limits_{w=-\infty}^{\infty}C_{v_1}(w)C_{v_2}(w)\,e^{-jws}\,dw\\ &=\,\frac{1}{2\pi}\,\int\limits_{w=-\infty}^{\infty}\,\int\limits_{v_1=-\infty}^{\infty} f_{v_1}(v_1)\,e^{jwv_1}\,dv_1\,\,C_{v_2}(w)\,e^{-jws}dw\\ &=\int\limits_{v_1=-\infty}^{\infty}\underbrace{\frac{1}{2\pi}\int\limits_{w=-\infty}^{\infty}C_{v_2}(w) \,e^{-jw(s-v_1)}\,dw}_{f_{v_2}(s-v_1)}\,\,f_{v_1}(v_1)\,dv_1 \,\,=\,\int\limits_{v_1=-\infty}^{\infty} f_{v_2}(s-v_1)\,f_{v_1}(v_1)\,dv_1\\ f_s(s) &= f_{v_1}(s)\,*\,f_{v_2}(s) \end{aligned} \end{equation*}

Beispiele für eindimensionale Wahrscheinlichkeitsdichtefunktionen

Gleichverteilung:

Definition der Gleichverteilung:
\begin{equation} f_v(v) \,\,=\,\,\left\{ \begin{array}{ll} \frac{1}{v_{\max}-v_{\min}}, & \textrm{falls}\,\,v_{\min}\,\le\,v\,\le\,v_{\max}, \\ 0,& \textrm{sonst} \end{array} \right. \end{equation}
SystemKont
\(\frac{1}{v_{\text{max}}-v_{\text{min}}}\)
\( v_{\text{min}} \)
\(v_{\text{max}}\)
\(v\)
\( m_v\)
\( f_v(v) \)

Mittelwert: \begin{equation*} \begin{aligned} m_v &= \int\limits_{v=v_{\min}}^{v_{\max}} v\, \frac{1}{v_{\max}-v_{\min}}\,dv \,\,=\,\, \frac{1}{v_{\max}-v_{\min}} \,\left[ \frac{v^2}{2} \right]_{v_{\min}}^{v_{\max}}\\ &\scriptsize{\color{grey}{\text{... Stammfunktion einsetzen und vereinfachen ... }}} \\ &= \frac{v_{\max}^2 - v_{\min}^2}{2\,(v_{\max}-v_{\min})} \,\,=\,\,\frac{(v_{\max} - v_{\min})\,(v_{\max} + v_{\min})}{2\,(v_{\max}-v_{\min})} \\ &\scriptsize{\color{grey}{\text{... weiter vereinfachen ... }}} \\ &= \frac{v_{\max} + v_{\min}}{2}. \end{aligned} \end{equation*}

Der Mittelwert liegt hier in der "Mitte" der Dichte - das gilt für alle symmetrischen Dichten.

Varianz: \begin{equation*} \begin{aligned} \sigma_v^2 \,\,=\,\,\frac{1}{12}\,(v_{\max} - v_{\min})^2. \end{aligned} \end{equation*}

Gaußverteilung:

Definition der Gaußverteilung (auch Normalverteilung):
\begin{equation} f_v(v) \,\,=\,\,\frac{1}{\sqrt{2\pi}\sigma_v}\,e^{-\frac{(v-m_v)^2}{2\sigma_v^2}} \end{equation}

Die wichtigsten Sekundärparameter (Mittelwert \(m_v\) und Varianz \(\sigma_v^2\)) sind hier direkt Parameter der Funktion.

Darstellung:

SystemKont
\(f_v(v)\)
\( v\)

Gaußverteilungen weisen zahlreiche nützliche Besonderheiten auf, daher werden sie häufig in Modellen verwendet. Schickt man beispielsweise einen Gaußverteilten Zufallsprozess durch ein lineares System, so entsteht am Ausgang wieder ein Gaußverteilter Zufallsprozess, welcher durch Mittelwert und Varianz vollständig beschrieben ist. Es genügt dann, nur diese beiden Parameter am Ausgang des Systems zu bestimmen, um zu einer vollständigen Dichtebeschreibung zu kommen.


Weitere gängige Wahrscheinlichkeitsdichten sind:

SystemKont
\(f_y(y)\)
\( y \)
aus D. Wolf: Signaltheorie - Modelle und Strukturen, Springer, 1999

Zufallsvariablen, die durch Verknüpfung statistisch unabhängiger, mittelwertfreier Gauß´scher Zufallsvariablen \(x\), \(z\) und \(w\) mit gleicher Varianz \(\sigma^2\) entstehen: \begin{equation*} \begin{aligned} &\textrm{K}_0 &\,\,\, y=x\,z & \Longrightarrow \quad f_y(y) \,\,=\,\, \frac{1}{\pi\,\sigma^2}\, \textrm{K}_0\,\bigg(\frac{|y|}{\sigma^2}\bigg)\\ &\textrm{Cauchy} & y=x/z & \Longrightarrow \quad f_y(y) \,\,=\,\, \frac{1}{\pi}\,\frac{1}{1+y^2} \\ &\textrm{Rayleigh} & y=\sqrt{x^2+z^2} & \Longrightarrow \quad f_y(y) \,\,=\,\,\left\{\begin{array}{ll} &\frac{y}{\sigma^2}\,e^{-\frac{y^2}{2\,\sigma^2}}, & \textrm{falls}\,\,\,y \geq 0, \\ 0 & \textrm{sonst.} \end{array}\right. \\ &\textrm{Laplace} & y=x\,\sqrt{z^2+w^2} & \Longrightarrow \quad f_y(y) \,\,=\,\, \frac{1}{2\,\sigma^2}\,e^{-\frac{|y|}{\sigma^2}} \\ &\textrm{Gamma} & y=x^2\,\textrm{sgn}\,x & \Longrightarrow \quad f_y(y) \,\,=\,\, \frac{1}{\sqrt{8\,\pi\,\sigma^2\,|y|}}\,e^{-\frac{|y|}{2\,\sigma^2}} \end{aligned} \end{equation*}

Beispiele für zweidimensionale Wahrscheinlichkeitsdichtefunktionen

Gleichverteilung:

Nehmen wir statistische Unabhängigkeit zwischen zwei Zufallsvariablen bzw. -prozessen an, so gilt folgende Definition für eine zweidimensionale Gleichverteilung:

Definition der zweidimensionalen Gleichverteilung:
\begin{equation} f_{v_1v_2}(v_1,v_2) = f_{v_1}(v_1)\,f_{v_2}(v_2) \\ = \left\{ \begin{array}{ll} \frac{1}{(v_{1,\max}-v_{1,\min})\,(v_{2,\max}-v_{2,\min})}, & \textrm{falls}\,\,(v_{1,\min} \le v_1 \le v_{1,\max})\\ & \qquad\qquad\qquad \wedge\,(v_{2,\min} \le v_2 \le v_{2,\max}), \\ 0,& \textrm{sonst} \end{array} \right. \end{equation}


SystemKont
\(f_{v_1v_2}(v_1,v_2)\)
\( v_1 \)
\( v_{1,\text{min}}\)
\( v_{1,\text{max}}\)
\(\text{"Höhe"}:\frac{1}{(v_{1,\text{max}}-v_{1,\text{min}})(v_{2,\text{max}}-v_{2,\text{min}})}\)
\(v_2\)
\( v_{2,\text{max}}\)
\( v_{2,\text{min}}\)
\(\xleftarrow{\hspace{20pt}}\)


Gaußverteilung:

Allgemein kann man die zweidimensionale Gaußdichte wie folgt angeben:

Definition der zweidimensionalen Gleichverteilung:
\begin{equation} f_{v_1 v_2}(v_1,v_2) = \frac{1}{2\pi\,\sigma_{v_1}\sigma_{v_2}\sqrt{1-\rho^2}}\,e^{-\frac{1} {2(1-\rho^2)}\Big[\big( \frac{v_1-m_{v_1}}{\sigma_{v_1}}\big)^2 -2\rho \big( \frac{v_1-m_{v_1}}{\sigma_{v_1}}\big) \big( \frac{v_2-m_{v_2}}{\sigma_{v_2}}\big) + \big( \frac{v_2-m_{v_2}}{\sigma_{v_2}}\big)^2 \Big]} \end{equation}

Der Parameter \(\rho\) wird dabei als Korrelationskoeffizient bezeichnet. Dieser ist definiert als \begin{equation*} \begin{aligned} \rho&= \frac{\psi_{v_1 v_2}(0)}{\sigma_{v_1}\,\sigma_{v_2}}. \end{aligned} \end{equation*}

Bei statistischer Unabhängigkeit gilt \(\rho=0\) und die Dichte kann in zwei eindimensionale Gaußdichten separiert werden: \begin{equation*} \begin{aligned} f_{v_1 v_2}(v_1,v_2) \,\,=\,\,\frac{1}{\sqrt{2\pi}\sigma_{v_1}}\,e^{-\frac{(v_1-m_{v_1})^2} {2\sigma_{v_1}^2}}\,\cdot\,\frac{1}{\sqrt{2\pi}\sigma_{v_2}}\,e^{-\frac{(v_2-m_{v_2})^2}{2\sigma_{v_2}^2}}. \end{aligned} \end{equation*}



SystemKont

Im oberen Bereich der Illustration liegt statistische Unabhängigkeit vor - die Höhenlinien der Dichte beschreiben Ellipsen, die Spiegelsymmetrien zu beiden Achsen aufweisen. Im unteren Bereich liegt statistische Unabhängigkeit nicht vor.

Dichtetransformation

Die Wahrscheinlichkeitsdichte \(f_y(y)\) eines Zufallsprozesses \(y=g(v)\) kann aus der Wahrscheinlichkeitsverteilung \(F_y(y)\) hergeleitet werden. In vielen Fällen ist es jedoch einfacher die Dichte direkt aus \(f_v(v)\) und \(g(v)\) zu bestimmen. Hierzu gehen wir zunächst davon aus, dass \(f_v(v)\) keine Distributionen enthält.

Sollte dies doch der Fall sein, so können diese unmittelbar auf \(f_y(y)\) abgebildet werden: es gilt dann: aus \(a\,\delta_0(v-v_0)\)in \(f_v(v)\) wird \(a\,\delta_0\big(y-g(v_0)\big)\)in \(f_y(y)\).

Für die Umrechnung der Wahrscheinlichkeitsdichte \(f_v(v)\) setzt man voraus, dass die Kennlinie \(y=g(v)\) für \(y=y_0\) und für \(y \,=\, y_0+\Delta_y\) mit \(\Delta_y \,>\, 0\), jeweils \(N\) einfache Lösungen aufweist: \begin{equation*} \begin{aligned} y_0&= g(v_{0,i}), \quad\textrm{für}\,\,i\,\in\,\{1,\,...,\,N\}, \\ y_0+\Delta_{y_0} &= g(v_{0,i} + \Delta_{v_{0,i}}), \quad\textrm{für}\,\,i\,\in\,\{1,\,...,\,N\}. \end{aligned} \end{equation*}

Kommende Illustration ist ein Beispiel für eine quadratische Funktion - diese führt zu jeweils \(N=2\) Lösungen.

Hier fehlt das Bild der Dichtetransformation-auseinanderschneiden?!

Damit können folgende Ereignisse definiert werden: \begin{equation*} \begin{aligned} A_y(y_0) &= \{ y_0 < y \le y_0+\Delta_y \}, \\ A_v(v_{0,i}) &= \left\{ \begin{array}{ll} \{ v_{0,i} < v \le v_{0,i}+\Delta_{v_{0,i}} \}, & \textrm{falls}\,\Delta_{v_{0,i}} > 0, \\ \{ v_{0,i}+\Delta_{v_{0,i}} < v \le v_{0,i} \}, & \textrm{sonst.} \\ \end{array} \right. \end{aligned} \end{equation*}

Für hinreichend kleines \(\Delta_y\) sind die Ereignisse \(A_v(v_{0,i})\) disjunkt und es gilt daher für deren Wahrscheinlichkeiten \begin{equation*} \begin{aligned} p\big(A_v(v_{0,i})\big) \,\,=\,\,P\bigg(\bigcup_{i=1}^{N}A_v(v_{0,i})\bigg) \,\,=\,\, \sum\limits_{i=1}^{N} p\big( A_v(v_{0,i}) \big). \end{aligned} \end{equation*}

Ferner kann man folgende Näherungen anstellen: \begin{equation*} \begin{aligned} p\big(A_y(y_0)\big) &\approx& f_y(y_0)\,|\Delta_{y_0}|, \\ p\big(A_v(v_{0,i})\big) &\approx& f_v(v_{0,i})\, |\Delta_{v_{0,i}}|. \end{aligned} \end{equation*}

Mit diesen Näherungen ergibt sich dann auch \begin{equation*} \begin{aligned} f_y(y_0)\,|\Delta_{y_0}| \,\,\approx \,\, \sum\limits_{i=1}^{N} f_v(v_{0,i})\, |\Delta_{v_{0,i}}|. \end{aligned} \end{equation*}

Nimmt man an, dass \(g(v)\) differenzierbar ist, so geht die oben genannte Näherung für \(\Delta_{y_0} \,\rightarrow\,0\) über in \begin{equation*} \begin{aligned} f_y(y_0)\,|dy_0| \,\, = \,\, \sum\limits_{i=1}^{N} f_v(v_{0,i})\, |d v_{0,i}|. \end{aligned} \end{equation*}

Mit \begin{equation*} \begin{aligned} g'(v_{0,i})\,\,=\,\,\left. \frac{dy}{dv}\right|_{v=v_{0,i}} \end{aligned} \end{equation*}

ergibt sich schließlich \begin{equation*} \begin{aligned} \boxed{ f_y(y_0) \,\,= \,\, \sum\limits_{i=1}^{N} \frac{f_v(v_{0,i})}{|g'(v_{0,i})|}.} \end{aligned} \end{equation*}

Dieser Zusammenhang ist zur Systemanalyse nutzbar, aber auch für Systeme zur gezielten Wahrscheinlichkeitsdichteformung.

SystemKont
\(y=g(v)\)
\( v_{0,2} \)
\( v_{0,1}\)
\( y_0+\Delta_{y_0}\)
\(y_0\)
\(\Delta_{y_0}\)
\(\Delta_{v_{0,2}}\)
\(\Delta_{v_{0,1}}\)
\(f_v(v)\)
\(v_{0,2}\)
\(v_{0,1}\)
\(y\)
\(f_y(y)\)
\(y_0+\Delta_{y_0}\)
\(y_0\)
\(v\)
\(v\)
aus E. Hänseler:Statistische Signale, 2.Auflage, Springer,1996

Häufigkeitsanalysen von realen Signalen

Histogramm-Analyse eines Sprachsignals:

SystemKont
Häufigkeit
Amplitude
\(45000 \text{Abtastwerte}\)
\(200 \text{Amplitudenintervalle}\)
aus E. Hänseler/G. Schmidt: Adaptive Filter, Vorlesung, TU Darmstadt

Gaußprozess:

SystemKont
aus E. Hänseler/G. Schmidt: Adaptive Filter, Vorlesung, TU Darmstadt

Histogramm-Analyse von einem Fahrzeuggeräusch:

SystemKont
Häufigkeit
Amplitude
\(45000 \text{Abtastwerte}\)
\(200 \text{Amplitudenintervalle}\)
aus E. Hänseler/G. Schmidt: Adaptive Filter, Vorlesung, TU Darmstadt

Spektren

Definitionen:

Gegeben seien

(oder die bis auf unterschiedliche Mittelwerte identische Kreuz- bzw. Auto-kovarianzfunktionen).

Hiermit liegen dann wieder determinierte Funktionen bzw. Folgen vor, für die bei Erfüllung der bekannten Voraussetzungen entsprechende Transformierte angebbar sind. Es gilt dabei:

Man bezeichnet die Größen

Hintergrund:

Aus den vorangegangenen Vorlesungsteilen ist der Zusammenhang zwischen den Spektren kontinuierlicher Signale \begin{equation*} \begin{aligned} V_0(j\omega),\,V_0(s),\,c_{\mu}\,\,& \bullet \!\! - \!\!\! - \!\! \circ &\,\,v_0(t) \end{aligned} \end{equation*}

und den Spektren diskreter Signale \begin{equation*} \begin{aligned} V(e^{j\Omega}),\,V(z),\,V_M(\mu)\,\,& \bullet \!\! - \!\!\! - \!\! \circ &\,\,v(n) \end{aligned} \end{equation*}

bekannt. Wir suchen nun den Zusammenhang des Leistungsdichtespektrums eines kontinuierlichen stochastischen Signals \(v_0(t)\) und dem Leistungsdichtespektrum eines diskreten stochastischen Signals \(v(n)\) für den Fall \begin{equation*} \begin{aligned} v(n)\,\,=\,\,v_0(nT_{\text{A}}), \end{aligned} \end{equation*}

d.h. also einer Abtastung des kontinuierlichen stochastischen Signals.

Lösung durch Betrachtung der Korrelierten (z.B. der Autokorrelationsfunktion)

\begin{equation*} \begin{aligned}v_0(t)\longrightarrow s_{v_0 v_0}(\tau)\,\, =\,\,\textrm{E}\big\{ v_0(t)\,v_0^*(t+\tau)\big\} \,\,& \circ \!\! - \!\!\! - \!\! \bullet &\,\,\underbrace{S_{v_0 v_0}(j\omega),\,S_{v_0 v_0}(s),\,c_{\mu, v_0 v_0}}_{\text{...je nach "Art" der Autokorrelationsfunktion!}} \end{aligned} \end{equation*}

        ⇓ Abtastung

\begin{equation*} \begin{aligned} v(n)= v(nT_{\text{A}})\longrightarrow s_{vv}(\kappa)\!&=\!\textrm{E}\big\{ v(n)\,v^*(n+\kappa)\big\}\\ &=\! \textrm{E}\big\{ v_0(nT_{\text{A}})\,v^*((n+\kappa)T_{\text{A}})\big\} \,=\, s_{v_0 v_0}(\kappa T_{\text{A}}) \end{aligned} \end{equation*}

Die Autokorrelation der Abtastwerte entspricht den Abtastwerten der Autokorrelierten des kontinuierlichen Signals: \begin{equation*} \begin{aligned} s_{vv}(\kappa) \,\,=\,\, s_{v_0 v_0}(\kappa T_{\text{A}}). \end{aligned} \end{equation*}

Als Konsequenz ergibt sich:

Alle Zusammenhänge \begin{equation*} \begin{aligned} V_0(j\omega) &\Longleftrightarrow& V(e^{j\Omega}) \\ V_0(s) &\Longleftrightarrow& V(z) \\ c_{\mu} &\Longleftrightarrow& V_M(\mu) \end{aligned} \end{equation*}

übertragen sich unmittelbar auf die (Kreuz- und Auto-) Leistungsdichtespektren!

Beispiele:

Die Kreuzkorrelationsfunktion zweier unkorrelierter Zufallssprozesse lautet:

Kontinuierlich: \begin{equation*} \begin{aligned} s_{v_1 v_2}(\tau)\,\,=\,\,m_{v_1}\,m_{v_2}^*\,\,\forall\,\,\tau\,\,& \circ \!\! - \!\!\! - \!\! \bullet &\,\,S_{v_1 v_2}(j\omega)\,\,=\,\,2\pi\,m_{v_1}\,m_{v_2}^*\,\delta_0(\omega) \end{aligned} \end{equation*}

... entsprechend einer Spektrallinie, "ausgedrückt" durch den Fourier-Koeffizienten \(c_{0, v_1 v_2} \,\,=\,\,m_{v_1}\,m_{v_2}^*\) bei \(w=0\).

Diskret: \begin{equation*} \begin{aligned} s_{v_1 v_2}(\kappa)\,\,=\,\,m_{v_1}\,m_{v_2}^*\,\,\forall\,\,\kappa\,\,& \circ \!\! - \!\!\! - \!\! \bullet &\,\,S_{v_1 v_2}(e^{j\Omega})\,\,=\,\,2\pi\,m_{v_1}\,m_{v_2}^*\, \sum\limits_{\nu=-\infty}^{\infty}\delta_0(\Omega-\nu 2\pi) \end{aligned} \end{equation*}

...entsprechend einer Spektrallinie, "ausgedrückt" durch den DFT-Koeffizienten \(V_{M, v_1 v_2}(0) \,\,=\,\, m_{v_1}\,m_{v_2}^*\) bei \(\mu\,=\,0\).

Die Kreuzkorrelationsfunktion zweier unkorrelierter Zufallsprozesse:



SystemKont
\(s_{v_1v_2}(\tau)\)
\( m_{v_1}\,m_{v_2}^* \)
\(\tau\)
\(S_{v_1 v_2}(j\omega)\)
\(2\pi\,m_{v_1}\,m_{v_2}^*\)
\(w\)
\(s_{v_1v_2}(\kappa)\)
\( m_{v_1}\,m_{v_2}^*\)
\(S_{v_1 v_2}(e^{j\Omega})\)
\(2\pi\,m_{v_1}\,m_{v_2}^*\)
\(\kappa\)
\(\Omega\)
\(0\)
\(0\)
\(-2\pi\)
\(2\pi\)
Kontinuierlich:
Diskret:



Autokorrelationsfunktion einer unkorrelierten Zufallsfolge:

Eine impulsförmige Autokorrelationsfunktion führt zu einem konstanten Leistungsdichtespektrum, d.h. alle Frequenzen sind gleichermaßen im Signal enthalten. In Analogie zur Optik nennt man so etwas "weißes Rauschen".

Kontinuierliches weißes Rauschen:

Zufallsprozesse und Signale

Begriffserklärungen:

Unter einem Zufallsprozess bzw. einem stochastischen Signal ist ein "Ensemble" von \(\infty\) vielen Signalen mit Entstehung nach identischer Vorschrift (\(f_v(v,t),\,f_{v_1 v_2}(v_1,v_2,t_1,t_2)\), usw.) zu verstehen.

Beispiel 1:

"\(\infty\) viele Generatoren" erzeugen Gaußverteiltes Rauschen (mit gleichem Mittelwert und gleicher Varianz). In der folgenden Abbildung sind drei "Prozess-Realisierungen" eines stationären Prozesses dargestellt. Diese sind zusätzlich ergodisch, was im nachfolgenden Absatz erklärt wird.

SystemKont
Quelle?

Wenn - und nur wenn - Stationarität vorliegt, kann zusätzlich Ergodizität gelten. Diese ist wie folgt definiert:

Bemerkungen:

Beispiel 2:

Folgende Abbildung zeigt drei "Prozess-Realisierungen" eines stationären aber nicht ergodischen Prozesses (der Mittelwert und die Varianz bleiben zwar für eine Realisierung jeweils konstant, dafür ändern sich diese Parameter aber von der Realisierung zu Realisierung).

SystemKont
Quelle?

Beispiel 3:

Die folgende Illustration bildet drei "Prozess-Realisierungen" eines instationären Prozesses ab (der Mittelwert und die Varianz ändern sich [in gleicher Weise für alle Realisierungen] über der Zeit).

SystemKont
Quelle?

Zeit-Mittelwerte:

Neben einer Messung bzw. Schätzung der Wahrscheinlichkeitsdichtefunktionen aus Einzelsignalen interessiert oft der Ersatz der Momente durch entsprechende zeitliche Mittelwerte.

Analog wird für zweidimensionale Größen die zeitliche Mittelung gemäß \begin{equation*} \begin{aligned} < g(v_1,v_2) > \,\,=\,\,\lim_{T\,\rightarrow\,\infty}\left\{\frac{1}{2T}\int\limits_{t=-T} ^{T}g\big(v_1(t),v_2(t)\big)\,dt \right\}. \end{aligned} \end{equation*}

bzw. \begin{equation*} \begin{aligned} < g(v_1,v_2) > \,\,=\,\,\lim_{N\,\rightarrow\,\infty}\left\{\frac{1}{2N+1}\sum\limits_{n=-N} ^{N}g\big(v_1(n),v_2(n)\big) \right\}. \end{aligned} \end{equation*}

definiert.

Bemerkungen:

Oft verwendete Zeitmittelwerte:

Abschließende Bemerkungen:

Abschließende Verständnisfragen

Abschließende Verständnisfragen

Fragen: Antworten:

Welche Signal- bzw. Prozesseigenschaften können Sie aus dem geschätzten Leistungsdichtespektrum eines Signals ermitteln?

Aus dem Leistungsdichtespektrum des Signals kann auf dessen Rauscheigenschaften zurück geschlossen werden. Des weiteren gibt es Aufschluss über die statistische Unabhängigkeit des Signals.

Welche Anwendungen können Sie sich vorstellen, bei denen die Analyse des Leistungsdichtespektrums in Betracht gezogen werden sollte?

Eine häufige Anwendung des Leistungsdichtespektrums findet bei der Berechnung des Signal-zu-Rausch-Verhältnisses statt. In der Medizin wird es zur Betrachtung der Herz-, Muskel- und Gehirnaktivität herangezogen.

Was sagt die Kreuzkorrelationsfunktion bzw. -folge von zwei Signalen aus?

Die Korrelationsfunktion bzw. -folge beschreibt die Ähnlichkeit der beiden Signale im Abstand \(\tau\) bzw. \(\kappa\) zueinander.

Für welche Anwendungen könnte man Kreuzkorrelationsfunktionen einsetzen?

Kreuzkorrelationsfunktionen können verwendet werden, um Signale mit Referenzsignalen zu vergleichen. Dadurch kann z.B. der Rauschanteil eines Signals ermittelt werden. Außerdem dient die Kreuzkorrelation oft zur Synchronisation von ähnlichen Signalen.

Was ist der Unterschied zwischen statistischer Unabhängigkeit und Unkorreliertheit?

Aus statistischer Unabhängigkeit folgt automatisch Unkorreliertheit. Aus Unkorreliertheit hingegen resultiert nicht unmittelbar statistische Unabhängigkeit.