Marktplatzangebote
Ein Angebot für € 30,00 €
  • Buch

Das Buch ist ein gut ausgebautes Nachschlagewerk, aber kein Lehrbuch der Statistik. Es präsentiert die Konzepte der Statistik in Form einer sehr ausführlichen kommentierten Formelsammlung, gestützt durch zahlreiche Abbildungen und Tabellen.
Von der deskriptiven Statistik und explorativen Datenanalyse über die Wahrscheinlichkeitsrechnung und die Inferenzstatistik (Schätzen und Testen) reicht das Spektrum bis zu speziellen Methoden (Regressions-, Varianz- und multivariate Analyse) und Spezialgebieten (Stichprobenverfahren, Box-Jenkins-Zeitreihenprognose) der Statistik.
Ein umfangreicher
…mehr

Produktbeschreibung
Das Buch ist ein gut ausgebautes Nachschlagewerk, aber kein Lehrbuch der Statistik. Es präsentiert die Konzepte der Statistik in Form einer sehr ausführlichen kommentierten Formelsammlung, gestützt durch zahlreiche Abbildungen und Tabellen.

Von der deskriptiven Statistik und explorativen Datenanalyse über die Wahrscheinlichkeitsrechnung und die Inferenzstatistik (Schätzen und Testen) reicht das Spektrum bis zu speziellen Methoden (Regressions-, Varianz- und multivariate Analyse) und Spezialgebieten (Stichprobenverfahren, Box-Jenkins-Zeitreihenprognose) der Statistik.

Ein umfangreicher Anhang mit Verteilungstabellen, Nomogrammen, Formeln und Konzepten der Linearen Algebra, einem deutschen und einem englischen Stichwortverzeichnis sowie einem Symbol- und Abkürzungsverzeichnis erleichtern das Arbeiten mit diesem Buch.

Gegenüber der letzten Auflage wurde die Inferenzstatistik komplett überarbeitet und durch nicht-parametrische Verfahren ergänzt. Der Teil Spezielle Methoden und Teilgebiete ist - bis auf die Regressionsanalyse - neu. Die anderen Teile sind korrigiert, verbessert und partiell erweitert worden.

Inhaltsverzeichnis:
Abbildungsverzeichnis Xiii
Tabellenverzeichnis XiX
Einleitung 1
TEIL A: Deskriptive Statistik und explorative Datenanalyse 3
1 Grundlegende Konzepte 3
1.1 Statistische Einheiten. 3
1.2 Skalen und statistische Merkmale. 4
1.3 Phasen einer statistischen Analyse. 9
1.3.1 Datengewinnung. 9
1.3.2 Datenaufbereitung. 11
1.3.2.1 Gruppen, Größenklassen und Reihen. 11
1.3.2.2 Tabellen und Tabellenaufbau. 14
1.3.2.3 Systematische Verzeichnisse. 15
1.3.3 Datenkontrolle. 16
1.3.3.1 Arten statistischer Fehler. 16
1.3.3.2 Kontrollverfahren. 19
1.3.3.3 Fehlerrechnung. 19
1.3.4 Datenpräsentation und Datenanalyse. 20
2 Univariate Datensätze 22
2.1 Verteilungskonzepte. 22
2.1.1 Nominales Merkmal. 22
2.1.2 Ordinales Merkmal. 25
2.1.3 Kardinales Merkmal. 28
2.1.3.1 Diskreter Fall ohne Klassierung. 29
2.1.3.2 Stetiger Fall ohne Klassierung. 29
2.1.3.3 Klassierte Daten. 30
2.2 Konzepte zur Parameterkonstruktion. 31
2.2.1 Empirische Perzentile. 31
2.2.2 Empirische Momente. 35
2.3 Parameter univariater Datensätze. 36
2.3.1 Lageparameter. 36
2.3.2 Streuungsparameter. 42
2.3.3 Schiefeparameter. 47
2.3.4 Wölbungsparameter. 48
2.4 Ausgewählte Graphiken. 49
3 Bivariate Datensätze 53
3.1 Verteilungs- und Parameterkonzepte. 53
3.2 Statistische Unabhängigkeit. 61
3.3 Maße des Zusammenhangs. 61
3.3.1 Nominale Merkmale: Assoziationskoeffizienten. 62
3.3.1.1 ?2-orientierte Maße. 62
3.3.1.2 Prädiktionsmaße. 63
3.3.1.3 Entropie-orientierte Maße. 64
3.3.1.4 Assoziationsmaße für die Vierfeldertafel. 65
3.3.2 Ordinale Merkmale: Rangkorrelation und Konkordanzmessung. 67
3.3.3 Kardinale Merkmale: Produktmomente und metrische Korrelation. 73
3.3.4 Merkmale mit verschiedenem Skalenniveau. 77
3.4 Einfachregression. 79
3.4.1 Regression erster Art. 79
3.4.2 Lineare Regression. 80
3.4.3 Nichtlineare Regression. 83
4 Multivariate Datensätze 84
4.1 Mehrdimensionale Verteilungen. 84
4.2 Statistische Unabhängigkeit. 86
4.3 Maße des Zusammenhangs und Parameter. 86
4.4 Multiple lineare Regression und Polynomregression. 88
4.5 Graphiken für multivariate Datensätze. 92
5 Verhältnis- und Indexzahlen 99
5.1 Gliederungszahlen. 99
5.2 Beziehungszahlen. 100
5.3 Messzahlen. 100
5.4 Indexzahlen. 102
5.4.1 Grundlagen und Symbolik. 102
5.4.2 Einige Indexformeln. 103
5.4.3 Kaufkraftparitäten. 109
6 Konzentrationsmessung 112
6.1 Grundbegriffe. 112
6.2 Absolute Konzentration. 113
6.3 Relative Konzentration oder Disparität. 115
6.4 Armuts- und Wohlstandsmaße. 118
7 Bestands- und Ereignismassen 121
7.1 Grundbegriffe. 121
7.2 Geschlossene Massen. 122
7.3 Offene Massen. 125
7.4 Abgangsmodelle, insb. Sterbetafeln. 127
8 Elementare Zeitreihenanalyse und Zeitreihenprognose 141
8.1 Definitionen und Klassifikationen. 141
8.2 Zeitreihenkomponenten und ihre Verknüpfungen. 143
8.3 Analyse von Zeitreihen. 145
8.3.1 Zeitreihen ohne Saisonkomponente. 145
8.3.1.1 Globale Trendmodelle. 145
8.3.1.2 Lokale Trendmodelle. 152
8.3.2 Zeitreihen mit Saisonkomponente. 153
8.3.2.1 Heuristische Verfahren. 153
8.3.2.2 Trend- und Saisonschätzung im Globalmodell. 154
8.3.2.3 Zerlegung mit gleitenden Durchschnitten im Lokalmodell. 157
8.4 Prognose von Zeitreihen. 158
8.4.1 Qualitative Prognoseverfahren. 159
8.4.2 Quantitative Prognoseverfahren. 159
8.4.2.1 Naive Prognosen und Extrapolationen eines Modells. 159
8.4.2.2 Exponentielles Glätten. 160
8.4.3 Prognosefehler. 162
8.4.3.1 Ursachen und Zweck. 162
8.4.3.2 Qualitative Prognosefehler. 163
8.4.3.3 Quantitative Prognosefehler. 165
TEIL B: Wahrscheinlichkeitsrechnung 167
1 Kombinatorik 167
1.1 Permutationen und lexikographische Anordnung. 167
1.2 Variationen. 168
1.3 Kombinationen, Binomial- und Polynomialkoeffizienten. 169
2 Konzepte der Wahrscheinlichkeitsrechnung 173
2.1 Zufallsexperiment und Ereignisse. 173
2.1.1 Definitionen. 173
2.1.2 Ereignisverknüpfungen. 173
2.1.3 Ereignisalgebren. 177
2.2 Wahrscheinlichkeitsbegriffe und Axiomatik. 178
2.3 Bedingte Wahrscheinlichkeiten. 180
2.4 Sätze der Wahrscheinlichkeitsrechnung. 181
3 Zufallsvariablen und ihre Verteilungen 184
3.1 Definition und Typen von Zufallsvariablen. 184
3.2 Eindimensionale Zufallsvariable. 185
3.2.1 Verteilungskonzepte. 185
3.2.2 Parameterkonzepte. 187
3.3 Zwei- und mehrdimensionale Zufallsvariable. 198
3.3.1 Verteilungskonzepte. 198
3.3.2 Parameterkonzepte. 201
3.4 Erzeugen von Zufallszahlen mit vorgegebener Verteilung. 204
3.4.1 Echte Zufallszahlen und ihre Generatoren. 205
3.4.2 Pseudozufallszahlen und ihre Generatoren. 206
3.4.3 Direkte Verfahren für eine vorgegebene Verteilung. 208
3.4.4 Indirekte Verfahren für eindimensionale stetige Verteilungen. 209
3.4.4.1 Inversion der Verteilungsfunktion. 209
3.4.4.2 Verwerfungsmethode. 210
3.4.4.3 Mischungsmethode. 210
3.4.5 Indirekte Verfahren für eindimensionale diskrete Verteilungen. 211
3.4.6 Indirekte Verfahren für zwei- und mehr-dimensionale Verteilungen. 212
3.4.7 Spezielle Verfahren für einzelne Verteilungen. 213
3.5 Transformationen und Funktionen von Zufallsvariablen. 213
3.5.1 Transformationen eindimensionaler Zufallsvariablen. 213
3.5.2 Funktionen mehrerer Zufallsvariablen. 220
3.5.3 Geordnete Zufallsvariablen. 223
3.5.4 Mischungen. 224
3.6 Ungleichungen für Zufallsvariablen. 226
3.6.1 Allgemeine Ungleichungen. 226
3.6.2 Ungleichungen für Momente. 230
3.6.3 Ungleichungen für Wahrscheinlichkeiten. 233
3.6.3.1 Ungleichungen betreffend eine Zufallsvariable. 233
3.6.3.2 Ungleichungen betreffend mehrere Zufallsvariablen. 235
3.7 Lineare Verteilungen. 237
3.7.1 Gleich- oder Rechtecksverteilung - Re(a;b). 237
3.7.2 Dreiecksverteilungen. 241
3.7.2.1 Linkssteile Dreiecksverteilung - Ld(a;b). 241
3.7.2.2 Rechtssteile Dreiecksverteilung - Rd(a;b). 243
3.7.2.3 Symmetrische Dreiecksverteilung - Sd(a;b). 245
3.7.2.4 Asymmetrische Dreiecksverteilung - Ad(a;b;c). 245
3.7.3 Trapez-Verteilung - Tr(a;b;c;d). 248
3.7.4 Symmetrische V-Verteilung - Sv(a;b). 249
3.8 Verteilungen im Urnenmodell. 250
3.8.1 Das Urnenmodell. 250
3.8.2 BERNOULLI-VERTEILUNG - Be(P). 251
3.8.3 Binomial- und negative Binomialverteilung. 253
3.8.3.1 Binomialverteilung - Bi(n;P). 253
3.8.4 Hypergeometrische und negative hypergeometrische Verteilung. 262
3.8.4.1 Hypergeometrische Verteilung - Hy(n; N; M). 262
3.8.4.2 Negative hypergeometrische Verteilung - Nh(c;N;M). 267
3.8.5 PÓLYA-Verteilung - Py(n; N; M; S). 268
3.8.6 Multi-oder Polynomialverteilung-Mn(n;P1;. ;Pm). 272
3.8.7 Multivariate hypergeometrische Verteilung - Mh(n;N; M1;. ;Mm). 274
3.9 Verteilungen im Warteschlangenmodell. 277
3.9.1 Warteschlangenmodell und Verweilzeit. 277
3.9.2 POISSON-Verteilung - Po(?). 278
3.9.3 Exponentialverteilung - Ex(?). 283
3.9.4 Gamma- und ERLANG-Verteilung - Ga(?; c). 286
3.9.5 weibull-Verteilung - We(a; b; c). 290
3.10 Normalverteilung und verwandte Verteilungen. 293
3.10.1 Eindimensionale Normal Verteilung - No(µ; s2). 293
3.10.2 Lognormale Verteilung - Ln(µ*;s*2). 301
3.10.3 Zweidimensionale Normalverteilung - Nz(µx; µy; s2x; s2y; ?). 305
3.10.4 Mehrdimensionale Normalverteilung - Nm(µ;?). 312
3.10.5 ?2-Verteilungen. 314
3.10.5.1 Zentrale ?2-Verteilung - ?2(?). 314
3.10.5.2 Dezentrale ?2-Verteilung - ?2(? ?). 318
3.10.6 t-Verteilungen. 321
3.10.6.1 Zentrale t-Verteilung - t(?). 321
3.10.6.2 Dezentrale t-Verteilung - t(?;d). 323
3.10.7 F-Verteilungen. 325
3.10.7.1 Zentrale F-Verteilung - Fi(?1; ?2). 325
3.10.7.2 Dezentrale F-Verteilung - Fi(?1; ?2; ?). 329
3.10.8 WISHART-Verteilung - Wi (?; m; ?). 331
3.10.9 HOTELLING's-T2-Verteilung - Ht(m;n). 333
3.10.10 WILKS'-A-Verteilung - Wl(m; ?1; ?2). 334
3.11 Weitere stetige Verteilungen. 335
3.11.1 Beta-Verteilung - Bt(c; d). 335
3.11.2 CAUCHY-Verteilung - Ca(a; b). 342
3.11.3 DIRICHLET-Verteilung - Di(c0; c1;. ; cm). 345
3.11.4 Extremwertverteilungen. 346
3.11.4.1 Extremwertverteilung vom Typ I - EwI(a; b). 347
3.11.4.2 Extremwertverteilung vom Typ II - EwII(a; b; c). 349
3.11.4.3 Extremwertverteilung vom Typ III - EwIII(a; b; c). 350
3.11.5 LAPLACE-Verteilung - Lp(a; b). 350
3.11.6 Logistische Verteilung - Lo(a; b). 352
3.11.7 PARETO-Verteilung - Pa(a; b; c). 356
3.11.8 Potenz-Verteilung - Pt(a; b; c). 358
3.11.9 VON-MISES-Verteilung - Vm(a; b). 361
3.11.10 WALD-Verteilung (Inverse GAUSS-Verteilung) - Wa(a; b). 362
3.12 Weitere diskrete Verteilungen. 364
3.12.1 Einpunkt-Verteilung - Ep(x0). 364
3.12.2 Gleichverteilung - Gl(a;b;L). 366
3.12.3 Koinzidenz-, Belegungs- und Iterationsverteilungen. 369
3.12.4 Logarithmische Verteilung - Lg(?). 371
3.12.5 Potenzreihen-Verteilung - Pr(c). 374
3.12.6 Zeta-Verteilung - Ze(?). 375
3.12.7 Zweipunkt-Verteilung - Zp(x1; x2; P). 378
3.13 Verteilungsfamilien. 379
3.13.1 Location-Scale-Verteilungen. 379
3.13.2 Verteilungsklassen für Lebensdauer und Verweilzeit. 380
3.13.3 Stabile Verteilungen. 383
3.13.4 IDD-Variable. 385
3.13.5 Exponentialfamilien. 385
3.13.6 PEARSON-Verteilungssystem. 387
4 Stochastische Prozesse im Überblick 388
4.1 Definition und Kennzeichnung. 388
4.2 Typen und Beispiele. 392
4.2.1 Stationäre Prozesse. 392
4.2.2 MARKOV-Prozesse. 396
4.2.3 Prozesse mit unabhängigen Zuwächsen. 398
4.2.4 Martingale. 402
4.2.5 Lineare Prozesse. 402
4.3 MARKOV-Ketten. 405
5 Stochastische Konvergenz, Grenzwertsätze 410
5.1 Konvergenzarten. 410
5.2 Gesetze der großen Zahlen. 412
5.3 Zentrale Grenzwertsätze. 416
TEIL C: Inferentielle Statistik 419
1 Grundkonzepte der Inferenzstatistik 419
1.1 Statistische Theorien im Überblick. 419
1.2 Zufallsstichproben. 420
1.2.1 Einstufige Stichproben. 421
1.2.2 Zweistufige Stichproben und ihre Sonderformen. 422
1.2.3 Realisierung von Zufallsstichproben. 424
1.3 Stichprobenvektor und Stichprobenfunktionen. 427
1.4 Likelihood-Funktion. 429
2 Schätztheorie 434
2.1 Punktschätzung. 434
2.1.1 Eigenschaften von Schätzfunktionen. 434
2.1.1.1 Erwartungs- und Mediantreue. 435
2.1.1.2 Effizienz. 436
2.1.1.3 Konsistenz. 439
2.1.1.4 Suffizienz. 440
2.1.1.5 Normalität und Linearität. 444
2.1.1.6 Robustheit. 444
2.1.1.7 Klassen von Schätzern nach ihren Eigenschaften. 446
2.1.2 Konstruktionsprinzipien für Schätzfunktionen. 446
2.1.2.1 Delta-Methode. 446
2.1.2.2 Momentenmethode. 447
2.1.2.3 Perzentilsmethode. 448
2.1.2.4 Maximum-Likelihood-Methode. 449
2.1.2.5 Kleinst-Quadrate-Methode. 454
2.1.2.6 ?2-Minimum-Methode. 455
2.2 Intervallschätzung. 455
2.2.1 Schwankungs- und Schätzfehlerintervalle. 455
2.2.2 Konfidenzintervalle. 457
2.2.3 BONFERRONI-Konfidenzintervalle und gemeinsame Konfidenzbereiche. 463
2.2.4 Toleranzintervalle (Statistische Anteilsbereiche). 464
2.3 Weitere Schätzverfahren. 472
2.3.1 Sequentielle Schätzung. 472
2.3.2 Robuste Schätzung. 473
2.3.3 Resampling Techniken. 479
2.3.4 Nichtparametrische Dichteschätzung. 482
2.3.5 Graphische Verfahren im Wahrscheinlichkeitsnetz. 487
3 Testtheorie 494
3.1 Grundbegriffe der Testtheorie. 494
3.1.1 Ablauf eines Tests. 494
3.1.2 Beurteilung eines Tests. 497
3.1.3 Hypothesenformulierung. 501
3.1.4 Likelihood-Quotienten-Tests. 504
3.1.5 WALD- und LAGRANGE-Multiplikatoren-Tests. 508
3.1.6 Sequentieller Likelihood-Quotienten-Test. 509
3.1.7 Randomisierte Tests. 514
3.2 Verteilungsgebundene Parametertests. 515
3.2.1 Tests für einen Mittelwert. 515
3.2.2 Tests zum Vergleich von Mittelwerten bei Normalverteilungen. 517
3.2.3 Tests zum Vergleich von Mittelwerten bei POISSON-Verteilungen. 520
3.2.4 Tests für einen Anteilswert (Binomialtest). 520
3.2.5 Tests zum Vergleich von Anteilswerten. 521
3.2.6 Tests für eine Varianz. 522
3.2.7 Tests zum Vergleich von Varianzen. 524
3.2.8 Tests für Korrelationskoeffizienten. 525
3.3 Verteilungsfreie Parametertests. 526
3.3.1 Einstichproben-Lagetests. 526
3.3.1.1 Randomisierungstest für den Mediän einer symmetrischen Verteilung. 526
3.3.1.2 Rangzahlen, Rangstatistiken und ihre Verteilung. 528
3.3.1.3 Allgemeiner Vorzeichen-Test. 530
3.3.1.4 WILCOXON's Vorzeichen-Rangtest. 531
3.3.2 Zweistichproben-Probleme bei unabhängigen Stichproben. 532
3.3.2.1 Definition und Verteilung der einschlägigen Rangstatistik. 532
3.3.2.2 Rangtests für Lagealternativen. 533
3.3.2.3 Rangtests für Streuungsalternativen. 536
3.3.3 Zweistichprobenprobleme bei verbundenen Stichproben. 540
3.3.3.1 Vorzeichen-Test. 540
3.3.3.2 WILCOXON-Test. 541
3.3.4 Mehrstichproben-Probleme. 542
3.3.4.1 KRUSKAL-WALLIS-Test bei unabhängigen Stichproben. 542
3.3.4.2 FRIEDMAN-Test bei verbundenen Stichproben. 544
3.4 Weitere Testverfahren. 545
3.4.1 Tests auf Ausreißer. 545
3.4.2 Tests auf Zufälligkeit. 551
3.4.3 Tests auf Unabhängigkeit. 556
3.4.3.1 ?2-Unabhängigkeitstest. 556
3.4.3.2 Exakter FISHER-YATES-Test. 557
3.4.3.3 Rangkorrelationstest. 559
3.4.4 Homogenitätstests. 562
3.4.4.1 ?2-Homogenitätstest. 562
3.4.4.2 KOLMOGOROV-SMIRNOV-Homogenitätstest. 563
3.4.5 Anpassungstests. 566
3.4.5.1 ?2-Anpassungstest. 566
3.4.5.2 KOLMOGOROV-SMIRNOV-Anpassungstest. 567
3.4.5.3 Tests auf Normalverteilung. 568
4 Weitere Inferenztheorien 576
4.1 BAYES-Inferenz. 576
4.1.1 BAYES-Rückschluss. 576
4.1.2 Konjugierte Verteilungen. 578
4.1.3 Empirische BAYES-Methoden. 581
4.2 Statistische Entscheidungstheorie. 582
4.3 Likelihoodinferenz. 584
4.4 Fiduzialinferenz. 585
4.5 Strukturinferenz. 585
TEIL D: Spezielle Methoden und Spezialgebiete der Statistik 587
1 Regressionsanalyse 587
1.1 Lineare Regression. 587
1.1.1 Deterministische Regressoren und beliebig verteilte Störvariable. 589
1.1.1.1 Skalare Kovarianzmatrix der Störvariablen. 589
1.1.1.2 Nichtskaiare Kovarianzmatrix der Störvariablen. 594
1.1.2 Deterministische Regressoren und normalverteilte Störvariable. 596
1.1.2.1 Skalare Kovarianzmatrix der Störvariablen. 596
1.1.2.2 Nichtskaiare Kovarianzmatrix der latenten Variablen. 599
1.1.3 Stochastische Regressoren. 600
1.1.4 Autokorrelation der Störvariablen. 601
1.1.4.1 Tests auf Autokorrelationsfreiheit. 601
1.1.4.2 Schätzung bei Autokorrelation. 606
1.1.5 Heteroskedastizität der Störvariablen. 607
1.1.5.1 Tests auf Homoskedastizität. 608
1.1.5.2 Schätzung bei Heteroskedastizität. 610
1.1.6 Beurteilung der Regressoren und der funktionalen Form. 611
1.1.7 Multikollinearität. 616
1.1.7.1 Folgen, Entdeckung und Messung von Multikollinearität. 616
1.1.7.2 Überwindung von Multikollineariät. 618
1.1.8 Multivariate Regression. 621
1.2 Nichtlineare Regression. 624
1.2.1 OLS- und ML-Schätzung. 624
1.2.2 Berechnung der Schätzwerte. 626
1.2.2.1 GAUSS-NEWTON-Methode. 627
1.2.2.2 NEWTON-RAPHSON-Methode. 628
1.2.3 Intervallschätzung und Tests. 629
2 Varianzanalyse 631
2.1 Terminologie und Systematisierung. 631
2.2 Einfache ANOVA. 632
2.2.1 Deskriptive Auswertung. 633
2.2.2 Das Modell mit festen Effekten. 633
2.2.3 Das Modell mit zufälligen Effekten. 638
2.3 Zweifache ANOVA. 641
2.3.1 Balancierte Kreuzklassifikation. 641
2.3.1.1 Deskriptive Auswertung. 641
2.3.1.2 Das Modell mit festen Effekten. 643
2.3.1.3 Das Modell mit zufälligen Effekten. 646
2.3.1.4 Das Modell mit gemischten Effekten. 648
2.3.1.5 Der Sonderfall ohne Wiederholung. 649
2.3.2 Balancierte hierarchische Klassifikation. 650
3 Multivariate Verfahren 655
3.1 Distanzmessung. 655
3.2 Diskriminanzanalyse. 661
3.2.1 Diskriminanzanalyse bei Normalverteilung. 662
3.2.2 Diskriminanzanalyse nach FISHER. 666
3.2.3 Trennmaße und Variablenselektion. 669
3.3 Clusteranalyse. 670
3.3.1 Klassifikationstypen. 670
3.3.2 Bewertung einer Klassifikation. 673
3.3.3 Hierarchische Klassifikation. 675
3.3.4 Nichthierarchische Klassifikation. 677
3.3.5 Kritische Bemerkungen. 680
3.4 Hauptkomponentenanalyse. 680
3.4.1 Definition und Berechnung von Hauptkomponenten. 680
3.4.2 Interpretation, Anzahl und Anwendungen der Hauptkomponenten. 683
3.5 Faktorenanalyse. 688
3.5.1 Das faktorenanalytische Modell. 688
3.5.2 Faktorenlösung. 691
3.5.3 Faktorrotation. 693
3.5.4 Kritische Bemerkungen. 696
3.6 Kanonische Korrelationsanalyse. 697
4 Stichprobentheorie 702
4.1 Einstufige Auswahl. 702
4.1.1 Einfache Zufallsstichprobe. 703
4.1.1.1 Notation und Grundlagen. 703
4.1.1.2 Hochrechnung. 705
4.1.1.3 Bestimmung des Stichprobenumfangs. 706
4.1.2 Systematische Auswahl. 707
4.1.3 Auswahl mit ungleichen Wahrscheinlichkeiten. 707
4.2 Geschichtete einfache Auswahl. 709
4.2.1 Notation und Grundlagen. 709
4.2.2 Aufteilung des Stichprobenumfangs. 711
4.2.3 Hochrechnungsverfahren. 712
4.2.4 Nachträgliche Schichtung. 715
4.2.5 Einfache Klumpenauswahl. 715
4.3 Zweistufige Auswahlverfahren. 717
TEIL E: Anhänge 719
1 Tabellen 719
2 Nomogramme 761
3 Lineare Algebra 772
3.1 Definition und Typen von Matrizen, Transposition. 772
3.2 Addition und Subtraktion von Matrizen. 774
3.3 Matrizenmultiplikation. 774
3.4 Spur einer Matrix. 776
3.5 Determinanten. 776
3.6 Rang einer Matrix und lineare Abhängigkeit von Vektoren. 777
3.7 Inverse Matrix und Pseudoinverse. 777
3.8 Lineare Gleichungssysteme. 779
3.9 KRONECKER-Produkt. 780
3.10 Eigenwerte und Eigenvektoren. 781
3.11 Ähnliche Matrizen und Matrizendiagonalisierung. 782
3.12 Orthogonale Matrizen. 783
3.13 Idempotente Matrizen. 783
3.14 Quadratische Formen, definite und semidefinite Matrizen. 783
3.15 Vektorisierung von Matrizen. 784
3.16 Vektor- und Matrixdifferentiation. 785
3.17 Extremwerte ohne und mit Nebenbedingungen. 788
4 Symbole und Abkürzungen 790
4.1 Griechisches Alphabet. 790
4.2 Zeichen und Symbole der Mathematik. 790
4.2.1 Mengenlehre. 790
4.2.2 Logik. 792
4.2.3 Beziehungszeichen. 792
4.2.4 Algebra, Arithmetik, Zahlentheorie. 793
4.2.5 Analysis. 795
4.2.6 Konstanten. 797
4.2.7 Zahlwörter, Vorsilben für Vielfache und Teile von Einheiten. 798
4.3 Zeichen, Symbole und Abkürzungen der Statistik. 798
4.3.1 Ausgewählte Notationen der deskriptiven Statistik. 798
4.3.2 Ausgewählte Notationen der Wahrscheinlichkeitsrechnung und der statistischen Inferenz. 801
5 Literaturverzeichnis 806
6 Englische Fachbegriffe 821
7 Stichwortverzeichnis 831

Vorwort:
Das Taschenbuch der Statistik ist ein gut ausgebautes Nachschlagewerk, aber kein Lehrbuch. Es präsentiert die Konzepte der Statistik in Form einer sehr ausführlich kommentierten Formelsammlung, gestützt durch zahlreiche Abbildungen und Tabellen sowie gelegentliche Beispiele. Das Spektrum reicht von der deskriptiven Statistik und explorativen Datenanalyse (Teil A) über die Wahrscheinlichkeitsrechnung (Teil B) und die Inferenzstatistik (Schätzen und Testen) (Teil C) bis zu speziellen Methoden (Regressions- und Varianzanalyse, multivariate Statistik) und Spezialgebieten (Stichprobenverfahren) der Statistik (Teil D). Ein umfangreicher Anhang mit Verteilungstabellen, Nomogrammen, Formeln und Konzepten der Linearen Algebra, einem deutschen und englischen Stichwortverzeichnis sowie einem Symbol- und Abkürzungsverzeichnis erleichtern das Arbeiten mit diesem Buch.

Es richtet sich an Studierende der Wirtschafts-, Sozial-, Ingenieur- und Naturwissenschaften, die in ihrer Ausbildung Statistik-Kurse belegen müssen. Es werden sowohl Studienanfänger angesprochen als auch Studierende, die sich auf die Statistik - etwa als Wahl- oder Vertiefungsfach - spezialisieren wollen.

Mit dieser Auflage konnte das Taschenbuch der Statistik erneut verbessert, wesentlich erweitert und damit auf den neuesten Stand der Forschung gebracht werden.
Der Teil B wurde um WISHART-, HOTELLING's-T2- und WILKS'-?-Verteilung erweitert. Weitere diskrete Verteilungen und Verteilungsfamilien wurden neu aufgenommen, die Darstellung der stochastischen Prozesse wurde ausgebaut.
Der Teil C wurde komplett neu gefasst. Hinzugekommen sind in der Schätztheorie die Delta-Methode, Robustheit und die BONFERRONI-Intervalle sowie in der Testtheorie sequentielle und randomisierte Tests, verteilungsgebundene und verteilungsfreie Parametertests, ebenso eine Übersicht über Inferenzmethoden. Der neue Teil D behandelt die speziellen Methoden Regressions- und Varianzanalyse sowie multivariate Verfahren für kardinale Merkmale und enthält ein Kapitel über die Stichprobentheorie.
Im Teil E sind das zusammengefasste Literaturverzeichnis und die Zusammenstellung der wichtigsten Formeln zur Linearen Algebra neu hinzugekommen. Der Tabellenteil wurde erweitert.
Darüber hinaus wurden Fehler der vorangegangenen Auflage korrigiert, der Text auf die neue deutsche Rechtschreibung umgestellt, sowie eine Vielzahl kleinerer Verbesserungen und Ergänzungen eingebracht.

Mein Dank gilt jenen Personen, die auch schon an den letzten Auflagen engagiert beteiligt waren: meiner Sekretärin Frau Inge Bojara, meinen wissenschaftlichen Mitarbeiterinnen Frau Dr. Dorothea Reimer und Frau Dr. Katja Specht. Unterstützt bei der Erfassung der neuen Textpassagen haben mich die Studierenden Katharina Henseling und Andreas Palmer und bei den Korrekturarbeiten Frau Dr. Gabriele Spieker als frühere Mitarbeiterin und Herr Diplom-Ökonom Markus Spory als neuer Mitarbeiter.

Trotz aller Bemühungen lassen sich Fehler und Unzulänglichkeiten in einem so umfangreichen Referenzwerk nicht völlig ausschließen. Ich bitte die Leser um Unterstützung beim Aufspüren der "Schadstellen" und Benachrichtigung auf postalischem Weg (Prof. Dr. Horst Rinne, Justus-Liebig-Universität Gießen, Professur für Statistik und Ökonometrie, Licher Straße 64, D-35394 Gießen), per Telefon (0641 / 9922640) oder per e-mail (hörst.rinne@wirtschaft.uni-giessen.de).

Über die hoffentlich wenigen Korrekturen werden die Leser auf der Web-Site meiner Professur
(http://wwww.uni-giessen.de/fb02/statistik) informiert.

Gießen, im Mai 2003 Prof. Dr. Horst Rinne

Einleitung
Gegenstand und Gliederung der Statistik

Statistik (statistics) als wissenschaftliche Disziplin ist die Lehre von den Methoden zum Umgang mit quantitativen Informationen. Letztere heißen Daten (data). Statistik ist eine der Möglichkeiten, eine systematische Verbindung zwischen Erfahrung (Empirie) und Theorie herzustellen. Außer den reinen Formalwissenschaften wie z. B. Logik und Mathematik hat jede Substanzwissenschaft empirische und theoretische Bestandteile. Das Einsatzgebiet statistischer Methoden reicht so von den Naturwissenschaften (Astronomie, Biologie, Chemie, Medizin, Physik usw.) bis hin zu den Geistes- und Gesellschaftswissenschaften (Betriebs- und Volkswirtschaftslehre, Soziologie, Psychologie, Geschichte, Linguistik usw.). Gelegentlich sind aus der Verbindung der Statistik mit einer Substanzwissenschaft neue wissenschaftliche (Teil-) Disziplinen entstanden, etwa die Archäometrie, Biometrie, Ökonometrie, Psychometrie, Soziometrie.

Jeder Substanzwissenschaftler müsste eigentlich mit seiner Wissenschaft auch die zugehörigen statistischen Methoden lernen. Bei genauerer Betrachtung zeigt sich aber, dass die statistischen Methoden in den diversen Substanzwissenschaften einiges gemeinsam haben. Die theoretische Statistik befasst sich - unabhängig vom speziellen Einsatzgebiet - mit diesem Gemeinsamen. Zu unterscheiden von der theoretischen ist die praktische Statistik. Während die theoretische Statistik die Darstellung und Beurteilung der Daten zum Gegenstand hat, befasst sich die praktische Statistik mit der Methodik der Datenerhebung. Theoretische und praktische Statistik lassen sich zur allgemeinen Statistik zusammenfassen, von der die speziellen Statistiken zu unterscheiden sind, da sie nur auf die spezifischen statistischen Probleme einer Substanzwissenschaft eingehen. Spezielle Statistiken in diesem Sinne sind etwa die Bevölkerungs-, die Wirtschafts-, die Medizin- oder die technische Statistik.

In der allgemeinen Statistik lassen sich folgende Teilgebiete ausmachen:
• Deskriptive Statistik (statistics, descriptive) - Sie befasst sich mit der Gewinnung, Aufbereitung, Darstellung sowie graphischen und numerischen Beschreibung der Daten als solche. In diesem Kontext werden die Daten als quantitative historische Fakten gesehen.
• Explorative Datenanalyse (EDA) (data analysis, exploratory) - Hierunter versteht man die Untersuchung eines gegebenen Datensatzes mit verschiedenen, z.T. neuartigen, primär graphisch orientierten Verfahren, die sich jedoch zwanglos der deskriptiven Statistik zuordnen lassen, weshalb sie auch in Teil A gemeinsam behandelt werden. Die EDA geht auf J.W. TUKEY (1977) zurück. Sie soll den Informationsgehalt eines Datensatzes dem menschlichen Verständnis gut erschließen, daher die Dominanz der Graphik, und einerseits Strukturen in den Daten entdecken (Modellfindung) und andererseits Abweichungen davon aufdecken. EDA ist eine Philosophie für den flexiblen Umgang mit Daten.
• Inferentielle Statistik (statistics, inferential) - Sie hat zum Ziel, aus den vorliegenden Daten Schlüsse auf die Ursachenkomplexe zu ziehen, die diese Daten hervorgebracht haben könnten. Die statistische Inferenz, auch induktive Statistik genannt, versucht, einerseits zwischen konkurrierenden Erklärungshypothesen für die beobachteten Daten zu unterscheiden (statistische Testtheorie) (fest theory) und andererseits bei unstrittigem Erklärungsmodell die unbekannten Werte der Modellparameter aus den Daten bestmöglich zu ermitteln (statistische Schätztheorie) (estimation theory). Zur inferentiellen Statistik lässt sich auch die statistische Entscheidungstheorie (decision theory) rechnen, die sich mit der Herleitung "optimaler" Entscheidungen auf der Basis statistischer Daten und Bewertungen (Nutzen, Verlust, Gewinn) der Entscheidungskonsequenzen befasst.
• Wahrscheinlichkeitsrechnung (probability theory) - Bindeglied zwischen deskriptiver und inferentieller Statistik ist der Zufall, denn Gegenstand der Inferenzstatistik sind stochastische Modelle für die Daten. Im Gegensatz zu deterministischen Modellen treten in stochastischen Modellen Zufallseinflüsse auf. Methoden zur Behandlung des Zufalls in Form von Zufallsereignissen, Zufallsvariablen und Zufallsfunktionen stellt die Wahrscheinlichkeitsrechnung zur Verfügung. Diese ist eigentlich eine rein mathematische Disziplin, nämlich ein Teilgebiet der Maßtheorie im Rahmen der Mengenlehre.

Die folgende Übersicht fasst noch einmal alle bisher behandelten Begriffe und deren Beziehungen zusammen.

Rezension:
Rinne, Ordinarius für Statistik und Ökonomie in Gießen, hat 1982 bei Deutsch eine statistische Formelsammlung herausgegeben, die in West und Ost etliche Neuauflagen erlebte. Gleichsam als erweiterte Fortsetzung sieht der Verfasser sein "Taschenbuch der Statistik" an. Es dient sowohl als Repetitorium, als auch als Nachschlagewerk. In übersichtlicher Darstellung mit Definitionen, Tabellen und Stichwortverzeichnis behandelt es deskriptive Statistik, Wahrscheinlichkeitsrechnung, inferentielle Statistik. - Für Studenten der Wirtschafts- und Sozialwissenschaften und für Praktiker.
aus: ekz-Informationsdienst , 1996

Das Taschenbuch ist die bezüglich Inhalt und Umfang beträchtlich erweiterte Fortführung der "Statistischen Formelsammlung" desselben Verlages. Es ist gedacht als Referenzwerk für Studenten und Praktiker aus dem wirtschafts- und sozialwissenschaftlichen Bereich aber auch für Wissenschaftler anderer Disziplinen...
aus: Zentralblatt für Mathematik und ihre Grenzgebiete , 1996

Inhalt:
- Deskriptive Statistik
- Datensätze
- Verhältnis- und Indexzahlen
- Konzentrationsmessung
- Bestands- und Ereignismassen
- Analyse und Prognose von Zeitreihen
- Kombinatorik
- Wahrscheinlichkeitsrechnung
- Zufallsvariablen und Verteilungen
- Stochastische Prozesse und Grenzwertsätze
- Inferenzstatistik
- Schätztheorie
- Testtheorie
- Regressions-, Varianz- und multivariate Analyse
- Stichprobenverfahren
- Box-Jenkins-Zeitreihenprognose
Autorenporträt
Dr. Horst Rinne ist Professor für Statistik und Ökonometrie am Fachbereich Wirtschaftswissenschaften der Justus-Liebig-Universität Gießen. Er ist Autor zahlreicher Monographien über Ökonometrie, Zeitreihenanalyse sowie statistische Qualitätssicherung.