User:Mirko~enwiki/MathStat

= Kontinguität und Likelihood-Entwicklung=

Definition: Kontinguität
Seien $$\scriptstyle(\Omega_n,\mathcal{F}_n)$$ Messräume, $$\scriptstyle (P_n)$$ und $$\scriptstyle (Q_n)$$ Maße auf $$\scriptstyle\mathcal{F}_n$$. Dann heisst $$\scriptstyle (Q_n)$$ contiguous bezüglich $$\scriptstyle (P_n)$$, falls jede $$\scriptstyle (P_n)$$-Nullfolge auch eine $$\scriptstyle (Q_n)$$-Nullfolge ist:

$$ (P_n) \triangleleft (Q_n) :\iff \forall (A_n)_{n \in N}, A_n \in \mathcal{F}_n, P_n(A_n) \rightarrow 0: Q_n(A_n) \rightarrow 0 $$

Bemerkung: Die Konvergenz der Maße (in welchem Sinne auch immer) ist nicht gefordert.

Lemma: Äquivalente Definition mittels stochstaischer Konvergenz
$$ (P_n) \triangleleft (Q_n) \iff (X_n \xrightarrow{P_n} 0 \Rightarrow X_n \xrightarrow{Q_n} 0 \ \forall (X_n)_{n \in N}, X_n \in \mathcal{L}^0(\mathcal{F}_n) $$

Beispiel: Kontinguität als Verallgemeinerung von Absolutstetigkeit
Trotz dieser Gegenbeispiele kann Kontinguität als Verallgemeinerung von Absolutstetigkeit aufgefasst werden, denn mit \scriptstyle P_n = P und $$\scriptstyle Q_n = Q$$ gilt $$\scriptstyle Q_n \triangleleft P_n \iff Q_n \ll P_n $$

Satz: Charakterisierung Kontinguität
/Beweis Charakterisierung Kontinguität

Likelihood-Entwicklung (im Produktmodell)
Wir wollen nun die Likelihood-Funktion einer mathematischen Stichprobe für wachsenden Stichprobenumfang entwickeln. Unter klassischen Regularitätsannahmen (z.B. die aus dem Satz zur asymptotischen Konvergenz Normalverteilung des MLE) gilt:



Satz: Likelihood-Entwicklung
Sei $$\scriptstyle (\mathcal{X}^n, \mathcal{X}^{\oplus n}, (P_\theta^{\oplus n})_{\theta \in \Theta})_{n>0} $$ ein Produktmodell, welches bei \scriptstyle \theta_0 \in I(\Theta) \subseteq \mathbb{R}^k Hellinger-differenzierbar ist. Dann gilt für jede Folge $$\scriptstyle h_n \rightarrow h \in \mathbb{R} $$:

$$ $$

/Beweis Likelihood-Entwicklung

Bemerkung: Gaussches Shift-Modell
...

Gauss'sche Shift Experimente (pdf)

= Asymptotik von Bayes-Schätzern =

Problematik: Bayes-Schätzer hängt bei gegebener a-priori-Verteilung von der Verlustfunktion ab. Ziel: Asymptotik der a-posteriori-Verteilung

Satz von Bernstein-Mises
Sei $$\scriptstyle (\mathcal{X}^n, \mathcal{X}^{\oplus n}, (P_\theta^{\oplus n})_{\theta \in \Theta})_{n>0} $$ ein Produktmodell, welches bei \scriptstyle \theta_0 \in I(\Theta) \subseteq \mathbb{R}^k Hellinger-differenzierbar ist. Die Fischer-Informationsmatrix $$\scriptstyle I(\theta_0)$$ sei regulär.

Außerdem mögen Tests $$\scriptstyle \varphi_n $$ für $$\scriptstyle H_0\ :\ \theta = \theta_0 $$ existieren, so dass für ale Folgen $$\scriptstyle M_n \rigtarrow \infinity $$ mit einer Konstanten $$\scriptstyle n>0 $$:

$$ Bedingung an Test $$

Besitzt die a-priori-Verteilung von $$\scriptstyle \theta $$ eine stetige, positive Dichte in der Umgebung von $$\scriptstyle \theta_0 $$, so gilt:

$$

$$

Bemerkungen

 * Die Anforderungen ab die Tests bedeuten gerade, dass die Fehlerwahrscheinlichkeit erster Art gegen Null konvergiert und die Fehlerwahrscheinlichkeit zweiter Art exponentiell schnell gegen Null konvergiert. Mann kann zeigen (van der Vaart, Lemma 10.6), dass die geforderten Tests bereits existieren, wenn es für jedes $$\scriptstyle \epsilon > 0 $$ Tests $$\scriptstyle  \varphi_n $$ gibt, mit $$\scriptstyle ****** $$.

Im Wesentlichen benötigen wir also nur, dass der Parameter $$\scriptstyle \theta_0 $$ von den $$\scriptstyle \theta $$ mit $$\scriptstyle |\theta_0 - \theta| > \epsilon $$ durch Tests eindeutig (?) separiert werden kann. (Verstärkte Identifizierbarkeitsforderung)