1  Uni- und Bivariate Statistik

Veröffentlichungsdatum

2024-03-05

Die Folien zur Sitzung

full screen

Der Vorlesungsmitschnitt

1.1 Univariate Statistik

Alle Statistik baut auf Massen zentraler Tendenz und Streumasse auf. Für das, was wir in diesem Semester tun, brauchen wir eigentlich nur den Mittelwert (Durchschnitt) und die Standardabweichung. Der Mittelwert entspricht der Frage: Wo stehen wir im Schnitt? Die Formel gibt an, dass eine Summe (\(\sum\)) gebildet wird für alle \(x_i\) (von i = 1 bis n) und diese durch die Anzahl der Fälle n geteilt wird beziehungsweise mit 1/n multipliziert wird:

\[\begin{align} \overline{x} = & \frac{1}{n}\sum_i^n(x_i) \end{align}\]

Die Standardabweichung zeigt uns, wie homogen die Fälle in einer Variable um den Mittelwert streuen. Das ist ein wichtiger Kennwert, weil derselbe Mittelwert zustande kommt, wenn alle Fälle genau dem Mittelwert entsprechen (die Standardabweichung wäre 0) oder wenn die Hälfte der Werte extrem weit links von der Mitte und die andere Hälfte genauso weit, aber rechts vom Mittelwert liegen (siehe ?fig-homogenitaet). Die Standardabweichung (s) ist die Wurzel aus der Varianz (\(s^2\) oder «V»). Wenn Sie genau hinschauen, sehen Sie, dass die Varianz im Grunde der Mittelwert der quadrierten Abweichungen vom Mittelwert ist (vergleichen Sie die Formel mit der Mittelwertformel, wobei Sie gedanklich «\((x_i-\overline{x})^2\)» durch «\(\overline{x}\)» ersetzen).

\[\begin{align} s^2 = V = & \frac{1}{n} \sum_i^n(x_i-\overline{x})^2 \\ s = & \sqrt{\frac{1}{n} \sum_i^n(x_i-\overline{x})^2}\\ \hat{\sigma}^2 = & \frac{1}{n-1} \sum_i^n(x_i-\overline{x})^2\\ \hat{\sigma} = & \sqrt{\frac{1}{n-1} \sum_i^n(x_i-\overline{x})^2}\\ \end{align}\]

Wenn wir die Varianz als durchschnittliche quadrierte Abweichung vom Mittelwert in der Grundgesamtheit bestimmen wollten und \(\mu\) kennen würden, ergibt sich folgende Formel für die Varianz: \[ \sigma^2 = \frac{1}{n}\sum{(x_i-\mu)^2} \]

Das Problem ist, dass wir \(\mu\) nicht kennen, wenn wir eine Stichprobe gezogen haben. Um den unbekannten Parameter (der GG) \(\mu\) schätzen zu können, ziehen wir den Mittelwert \(\overline{x}\) als Stichprobenkennwert zur Schätzung von \(\mu\) heran. Dann teilen wir aber nicht mehr durch n, sondern durch n-1. Das will ich hier erklären. Die Schätzformel für die Varianz der GG ist (wie oben):

\[\begin{align} \hat{\sigma}^2 = & \frac{1}{n-1} \sum_i^n(x_i-\overline{x})^2 \end{align}\]

Um deutlich zu machen, dass wir die Varianz der GG nur schätzen, setzen wir dem \(\hat{\sigma}^2\) ein Dach auf. Die Formel ist schön kurz und knapp, aber eigentlich sieht man hier nicht gut, was durch das \(\frac{1}{n-1}\) korrigiert wird. Ein bisschen klarer wird es, wenn wir deutlich machen, dass es hier einen Korrekturfaktor für die Stichprobenvarianz gibt, der gekürzt wurde. Eigentlich könnte man ja schreiben:

\[\begin{align} \hat{\sigma}^2 = & \frac{n}{n-1} \cdot \frac{1}{n}\sum_i^n(x_i-\bar{x})^2\\ \hat{\sigma}^2 = & \frac{n}{n-1} \cdot s^2 \end{align}\]

Wenn wir den Korrekturfaktor \(\frac{n}{n-1}\) separieren, dann ist der Rest die einfach Varianz der Stichprobe \(s^2\). Den Korrekturfaktor bringe ich jetzt mal auf die andere Seite, weil ich damit besser weitermachen kann. Das tue ich, indem ich durch \(\frac{n}{n-1}\) teile. Dann stelle ich links noch ein bisschen um.

\[\begin{align} \hat{\sigma}^2 = & \frac{n}{n-1} \cdot s^2 && |\ :\frac{n}{n-1}\\ \hat{\sigma}^2 \frac{n-1}{n} = & s^2 \\ \hat{\sigma}^2 \frac{n}{n} - \frac{\hat{\sigma}^2}{n} = & s^2 && |\ + \frac{\hat{\sigma}^2}{n}\\ \hat{\sigma}^2 = & s^2 + \frac{\hat{\sigma}^2}{n} && |\ \sqrt{} \\ \hat{\sigma} = & s + \frac{\hat{\sigma}}{\sqrt{n}} \\ \hat{\sigma} = & s + s_{\bar{x}} \end{align}\]

Nach ein paar Mal umstellen und dann noch die Waruzel aus allem ziehen, kommt raus, dass das Sigma der Grundgesamtheit durch die Standardabweichung in der Stichprobe \(s\) plus dem Standardfehler \(s_{\bar{x}}\) berechnet wird. Durch die Ableitung wird gezeigt, dass hinter dem Korrekturfaktor, der an die Stichprobenvarianz angelegt wird (also \(\frac{1}{n-1}\)) eigentlich steht, dass wir die echte Standardabweichung \(\sigma\) in der GG um die Standardabweichung der Mittelwerte (aka Standardfehler) unterschätzen. Der Mittelwert wird je Stichprobe berechnet und wackelt daher, er hat eben seien Freiheiten. Da er ein Kennwert ist, der pro gedachter Stichprobe berechnet wird, hat, nimmmt der Mittelwert der Schätzung der Populationsvarianz \(\sigma^2\) einen Freiheitsgrad weg, weshalb durch n-1 geteilt wird.

Es gibt Statistiker und Statistikbücher, die sagen, dass auch die Standardabweichung einer Stichprobe oder einer Grundgesamtheit GG ein sinnvoller Wert ist (zB, wenn man eine Lehrevaluation in einem Semester macht und nur etwas über eine Veranstaltung wissen möchte, dann ist das ja eigentlich eine Vollerhebung der GG der Teilnehmenden.) Diese Statistiker schreiben \(s^2 = \frac{1}{n}\sum(x_i-\overline{x})^2\). Andere finden, dass die Standardabweichung eigentlich immer eine Schätzung für eine Populationsstreuung ist und schreiben daher immer \(s^2 = \frac{1}{n-1}\sum(x_i-\overline{x})^2\). Wer hat Recht? Is mir egal. Im Zweifel schreib ich lieber \(\hat{\sigma}^2\), wenn ich deutlich machen will, dass ein Parameter geschätzt werden soll und \(s^2\) nur, wenn es um die Stichprobe geht.

Im Tutorial schrittweise und graphisch erläutert:

:::

1.1.1 Z-Transformation

Die z-Transformation (auch «Standardisierung») einer Variable bedeutet, dass man sie so «verschiebt», dass sie um den Mittelwert 0 streut und zwar mit einer Standardabweichung von 1. Dazu wird von jedem Wert \(x_i\) der Mittelwert abgezogen und diese Differenz durch die Standardabweichung geteilt:

\[\begin{align} z_i= & \frac{x_i-\bar{x}}{s} \label{eq:z-Transformation} \end{align}\]

1.1.2 Normalverteilung und Standardnormalverteilung

Mit dem Mittelwert und der Abweichung vom Mittelwert können wir Verteilungen beschreiben, die sich nach bekannten Gesetzen verteilen: den Wahrscheinlichkeitsgesetzen. Die Normalverteilung ist dabei die wichtigste Verteilung. Bei dieser gedachten Idealverteilung steht der Mittelwert genau in der Mitte und die Streuung ist symmetrisch um den Mittelwert herum verteilt (wie in Abbildung 1.1, mit dem Mittelwert 2,5 und der Standardabweichung 0,5).

Abbildung 1.1: Beispiel einer Normalverteilung (\(\overline{x}\) = 3, s = 0,5)

Wegen dieser Eigenschaften, geben hier also der Mittelwert und die Standardabweichung die volle Information über die Art der Verteilung ab \(N(\overline{x},s_x)\). Die Standardnormalverteilung (nach der z-Transformation) hat einen Mittelwert von 0 und eine Standardabweichung von 1.

Abbildung 1.2: Die Standardnormalverteilung (\(\overline{x}\) = 0, s = 1)

1.1.3 Konfidenzintervalle für Mittelwerte

Konfidenzintervalle geben einen Wertebereich an, in dem die Parameter (GG) der Stichprobenkennwerte mit einer angebbaren Wahrscheinlichkeit liegen.

\[\begin{align} \text{ KI:}& \overline{X}\pm z_1 \cdot SE \label{eq:Konfidenz-Intervall-1}\\ \text{KI:}& \overline{X}\pm z_1 \cdot \frac{s_x}{\sqrt{n}} \label{eq:Konfidenz-Intervall-2}\\ \text{KI}_{l.05} =& \overline{x} - 1.96 \cdot \frac{s_x}{\sqrt{n}} \label{eq:Konfidenz-Intervall-3}\\ \text{KI}_{r.05} =& \overline{x} + 1.96 \cdot \frac{s_x}{\sqrt{n}}\label{eq:Konfidenz-Intervall-4} \end{align}\]

Mit dieser kleinen Onlineapp können Sie sich mal einen Eindruck davon verschaffen, wie Konfidenzintervalle reagieren. Schalten Sie sich mal «Show Confidence Intervals» und «Show True Parameter» an und stellen die «Number of Experiments» auf 20. Dann suchen Sie mal, wie viele Konfidenzintervalle den wahren Wert nicht enthalten:

KI-App

KI-App

Q&A: Ist es nicht so, dass das Konfidenzintervall bei grösserer und genauerer Sicherheit (zb eben 99% anstatt 95%) dann kleiner wird? Ich dachte grosser KI bedeutet kleine Sicherheit und kleines bzw schmales KI heisst grosse Sicherheit.

Eine sehr gute Frage, echt! Sie haben richtig erfasst, dass Sicherheit bei Konfidenzintervallen etwas mit der Wahrscheinlichkeit der Korrektheit einer Aussage (Sicherheitsniveaus) zu tun hat und gleichzeitig mit Genauigkeit der Aussage, also der Breite des Konfidenzintervalls. Diese beiden Konzepte sind aber gegenläufig! Wenn man in einer Schätzung mehr Sicherheit möchte, geht das nur auf Kosten der Genauigkeit. Stellen Sie sich vor, sie verabreden sich und sagen, dass sie es wahrscheinlich zwischen sechs und sieben schaffen. Ihrer Verabredung ist das aber nicht genau genug und möchte, dass Sie sagen, wann sie garantiert da sein können. Sie würden dann eher nicht das Intervall verkleinern und sagen, dass sie es ganz sicher zwischen 18:13 und 18:21 schaffen, sondern das Intervall eher verbreitern und vielleicht sagen, dass sie es sicher bis 20 Uhr schaffen werden. Wenn dann verlangt wird, dass sie genauer werden bei höherer Sicherheit würden Sie vielleicht vorschlagen, dass man sich ein andermal trifft. Was für ein Stress!

Also, wird eine höhere Sicherheit verlangt (99%-iges statt 95%-iges Signifikanzniveau), wird das Konfidenzintervall breiter.

Sie können das auch gedanklich durchspielen mit der Prognose der Höchsttemperatur für morgen und was passiert, wenn zum einen gefordert wird, dass die Prognose sehr genau ist (enges Intervall) und was passiert, wenn gefordert wird, dass die Prognose mit einer hohen Garantie auf Richtigkeit versehen wird (Signifikanz- bzw. Sicherheitsniveau hoch).

1.2 Bivariate Statistik

1.2.1 Kreuztabellen

Wenn wir Daten analysieren, dann können wir sie visualisieren. Eine sehr starke Form der Visualisierung sind Tabellen. Der Vorteil von Tabellen ist, dass sie sehr dicht an den Daten sind, wir also z.B. sehen können dass, 57 Prozent der Haushalte noch über mindestens ein Radiogerät verfügen. In der Deutschschweiz (DS) sind es sogar 62 Prozent, während es in der Romandie (FS) 44 Prozent sind und im Tessin und den weiteren Teilen der italienischen Schweiz (IS) 63 Prozent. Man kann aus Kreuztabellen für die beiden berücksichtigten Variablen den ursprünglichen Datensatz rekonstruieren, weil man weiss wie viele Leute befragt wurden, wie viel Prozent aus der DS sind, aus der FS und aus der IS und wie viele Leute jeweils mindestens ein Radio haben. Irgendwann kann ich Ihnen mal zeigen, wie man aus einer Kreuztabelle eine Korrelation berechnen kann – man braucht nicht mehr. Also gut, die Tabellen enthalten viele Informationen und können, mit ein bisschen Anleitung, von fast jedem gelesen werden (anders als unserer schönen Regressions- oder Strukturgleichungsmodelle). Das Problem ist aber, dass man sehr schnell einschläft, wenn einem so eine Tabelle vorgelesen wird. Wenn man sie selbst liesst, ist es einfach sehr viel, worauf man schauen muss, was man vergleichen und dann vielleicht sogar noch texten muss. Eine Korrelation fast in einem direkt lesbaren Wert das Zusammen, was Sie vielleicht aus 5*5, also 25 Tabellenzellen mühsam herauslesen und dann immer noch nur so vom Gefühl her texten können. Tabellen sind also relativ voraussetzungsfrei interpretierbar, aber es ist sehr ermüdend und langwierig.


Beispiel für eine Kreuztabelle mit Link zu mehr (interaktiven) Kreuztballen:
Kreuztabelle


1.2.2 Covarianz und Korrelation

Vor ein paar Zeilen hatte ich behauptet, man brauche als Kenngrössen in der Statistik nicht mehr als Mittelwert und Standardabweichung. Das sollte der Beruhigung dienen und ist ein bisschen gelogen. Ein Merkmal kann man mit diesen Kenngrössen in der Regel gut beschreiben, aber um das Zusammenspiel zweier Variablen beschreiben zu können, braucht es noch eine Kenngrösse: die Kovariation. Wieder etwas vereinfacht und doch nicht ganz falsch: fast alle multivariate Statistik baut auf Mittelwerten, Varianzen und Kovarianzen auf.

Kovarianz (cov oder auch C) sieht genauso aus, wie die Definition der Varianz, nur, dass nicht die Mittelwertabweichungen einer Variablen quadriert werden, sondern die Mittelwertabweichungen zweier Variablen multipliziert werden. Berechnet man die Kovarianz einer Variable mit sich selbst, kommt wieder die Varianz raus. Da Varianz und Mittelwert nicht standardisiert sind, ist auch die Kovarianz nicht standardisiert. Rechnet man mit standardisierten Variablen, kommt auch ein standardisierter Wert für die Kovarianz raus. Da der für Vergleiche von unvergleichlicher Bedeutung ist, hat auch dieser Kennwert einen eigenen Namen bekommen: Korrelation (r).

\[\begin{align} cov = C = & \frac{1}{n}\sum_i^n(x_i-\overline{x}) (y_i-\overline{y}) \label{eq:Covarianz} \\ r = & \frac{\sum_i^n(x_i-\overline{x}) (y_i-\overline{y})}{n \cdot s_x \cdot s_y} \label{eq:Korrelation} \end{align}\]


In der folgenden App werden Zusammenhänge illustriert. In dem Beispiel wurden Studierende gebeten, sich selbst in Bezug auf verschiedene Eigenschaften auf einer Skala von 0 bis 10 einzuordnen und was sie sich in Bezug auf dieselbe Eigenschaft von einer:m potentiellen Partner:in wünschen:

Wie man unschwer erkennen kann, hängen diese beiden Variablen miteinander zusammen – nicht perfekt (sonst wären alle Punkte auf der Geraden), aber es ist schon ein deutlicher Zusammenhang. Interessanter Weise ist der Zusammenhang bei Männern schwächer als bei Frauen. Schauen Sie doch mal, was Sie dort finden, vergleichen Sie auch mal die jeweiligen Durchschnittswerte der Selbsteinordnung und dem was sich so von Partnern gewünscht wird. :-)

1.2.3 Bivariate Regression

Die bivariate Regression ist im Grunde eine gehaltvollere Korrelation. Bei der Regression bestimme ich, im Unterschied zur Korrelation, was die abhängige Variable sein soll (AV) und was die unabhängige Variable sein soll (UV). Was die Regression bringt, sieht man in folgenden Formeln. Wenn wir in der ersten Zeile der Formeln @ref(eq:Mittelwert-Modell) davon ausgehen, dass wir keine UV haben, die die AV erklärt, dann haben wir als beste Information nur den Mittelwert. In dem Fall wäre unser Minimodell also: Die Werte in der Variable \(Y_i\) sind am besten durch ihren Mittelwert \(\overline{Y}\) «erklärt». Übrig bleiben die Abstände zwischen den gefundenen Werten und diesem Minimodell, also dem Mittelwert von Y. In der zweiten Zeile @ref(eq:Regressions-gleichung) sind wir schon klüger und nehmen an, dass eine Variable X dafür verantwortlich ist, dass die \(Y_i\) so ausfallen, wie sie ausfallen. In der zweiten Zeile heisst es im Grunde: Die Werte in der AV Y sind abhängig von der UV X, wobei jeder Wert X mit einem b multipliziert werden muss und dann ein Rest \(e_i\) bleibt. Damit Y nicht 0 sein muss, wenn X 0 ist (b*0=0), kommt zu dem \(b_2\) noch ein \(b_1\). Fertig ist die bivariate Regressionsgleichung.

\[\begin{align} Y_i & = \overline{Y} + e_i \label{eq:Mittelwert-Modell} \\ Y_i & = b_1 + b_2X_i + e_i \label{eq:Regressions-gleichung} \\ \hat{Y_i} & = b_1 + b_2X_i \label{eq:Regressions-Modell} \\ Y_i & = \hat{Y_i}+e_i \label{eq:Varianz-Modell-Residuum} \end{align}\]

Jetzt könnten wir noch die vorhergesagten \(\hat{Y}\) (gekennzeichnet durch ein Dach) durch das Modell abbilden, wobei dann einfach kein \(e_i\) bleibt (dritte Zeile @ref(eq:Regressions-Modell)). In der untersten Formel @ref(eq:Varianz-Modell-Residuum) haben wir die in der Stichprobe gemessenen \(Y_i\), die gleich gesetzt sind mit den geschätzten \(Y_i\) und dem Rest \(e_i\).

Das \(b_2\) gibt jetzt an, um wie viel Y grösser (oder kleiner) ist, wenn X um eine Einheit seiner Skala grösser wird. Die b’s sind also skalenabhängig. Weil das nicht immer leicht zu interpretieren ist und uns oft die Skalierung nicht weiter interessiert, wurden die standardisierten Regressionkoeffizienten erfunden. Bei diesen steht im Grunde wieder eine z-Transformation im Hintergrund, die die Skala «herausrechnet», indem durch die Standardabweichung geteilt wird.

Die standardisierten Regressionskoffizienten geben einen Zusammenhang in Standardabweichungen an: Wenn x um eine Standardabweichung grösser ist, um wie viele Standardabweichungen ist dann y grösser (kann negativ sein)?

Sie sind definiert als: \(BETA = b\cdot\frac{s_x}{s_y}\)

Die BETAs1 sind den partiellen Korrelationen sehr ähnlich: +1 ist ein perfekter positiver Zusammenhang, 0 kein Zusammenhang und -1 ein perfekter negativer Zusammenhang. Interpretieren würde ich ab 0.1, wenn sie signifikant sind.

1.3 Inferenzstatistik

Was in den Daten ist, die wir analysieren, das ist in den Daten – Punkt. Wir können Daten mit all diesen Tools untersuchen. Dafür brauchen wir natürlich vollständige Daten über das, was wir untersuchen wollen. Die haben wir aber oft nicht, weil es schlicht zu teuer ist und alle Menschen unfassbar nerven würde, wenn alle Sozialforscher:innen und Psycholog:innen und Wirtschaftswissenschaftler:innen usw. dauernd alle Menschen befragen würden. Das machen wir nicht, weil eine faszinierende Eigenschaft der Statistik ist, dass wir aus Teildaten Schlüsse auf die «Gesamt-Daten» ziehen können. Dieses Schliessen nennt man Inferenz (besser über das Englische zu merken: to infer). Dafür ist es notwendig, dass wir die Daten ohne bewussten Bias aus den Gesamtdaten entnommen haben.

Einen Bias ausschliessen können wir, wenn wir den Zufall walten lassen. Zufall ist nichts anderes als das Nicht-bewusst-oder-unbewusst-Auswählen. Wenn wir zufällig gezogen haben, dann haben wir eine gute Chance auf ein unverzerrtes Abbild der Grundgesamtheit, die uns interessiert. Dann berechnen wir die ganzen Kennwerte der deskriptiven Statistik für die Stichprobe und können anhand der Zufallsgesetze bzw. Wahrscheinlichkeitstheorie auf die Verteilung in der Grundgesamtheit schliessen. Dabei bleibt eine Unsicherheit, weil der Zufall zufällig ungünstig ausfallen kann (wir haben auch schon Pferde kotzen sehen).

Wir können allerdings sagen, wie wahrscheinlich bzw. unwahrscheinlich es ist, dass wir extrem viel Pech hatten mit unserer Stichprobenziehung. Dabei sind wir sehr vorsichtig und schätzen und testen konservativ. Die Frage ist also immer: Kann ich, wenn ich ganz vorsichtig und konservativ bin, ausschliessen, dass ich sehr viel Pech bei der Ziehung meiner Zufallsstichprobe hatte? Das Pech bei der Zufallsziehung wird als Nullhpyothese bezeichnet (H0). Die sagt nämlich, wir haben eigentlich keinen Unterschied oder Zusammenhang und trotzdem in unserer Stichprobe den Unterschied (abweichend von 0) gefunden, den wir gefunden haben. Wenn wir – bei aller Vorsicht – sagen, dass ein Effekt (Unterschied oder Zusammenhang) so gross ist, dass die Nullhypothese so unwahrscheinlich wird (5% Irrtumswahrscheinlichkeit), dass wir sie ablehnen können, dann haben wir etwas gefunden, etwas Signifikantes!

Ob das signifikante Ergebnis unserer Theorie entspricht oder nicht, das müssen wir dann noch schauen, aber erstmal können wir festhalten, dass wir überhaupt etwas gefunden haben und nicht sagen müssen: Wir haben zwar einen positiven Zusammenhang gefunden, aber statistisch müssen wir die Nullhypothese beibehalten, dass der Zusammenhang positiv sein könnte, aber auch 0 oder negativ. Wenn wir nichts ausschliessen können, wissen wir nichts. Die H0 bedeutet also, dass wir statistisch nichts feststellen können und daher auch nicht zu Wissen gelangen. Wenn Sie irgendwo lesen, dass jemandem in seinen Analysen eine H0 zugute kommt oder die Annahme einer Nullhypothese als Erkenntnis gefeiert wird, seien Sie sehr skeptisch! Meistens liegt ein Denkfehler zugrunde: Dass ich 0 nicht ausschliessen kann, heisst nicht, dass ein Zusammenhang oder Unterschied nicht existiert. Wenn wir z.B. in einer Stichprobe einen Unterschied zwischen zwei Gruppen gefunden haben, dann ist die Wahrscheinlichkeit dafür, dass der Unterschied in der Grundgesamtheit 0 ist genauso gross, wie die Wahrscheinlichkeit, dass der Unterschied in der Grundgesamtheit doppelt so gross ist, wie der den wir gefunden haben. Das liegt daran, dass die Glockenkurve der Fehlerverteilung um einen gefundenen Wert symmetrisch um den gefunden Unterschied verteilt ist.


Mit dieser App lässt sich etwas mit der Normalverteilung experimentieren:
Normalverteilung


1.3.1 Hypothesentesten

Erkenntnistheoretisch prüfen wir unsere Hypothesen, um unser Wissen immer weiter abzusichern, bzw. Veränderungen festzustellen. Eine Theorie muss sich in der empirischen Sozialforschung immer wieder an neuen Daten bewähren. Wiedersprechen meine Daten immer wieder (replizierbar) der Theorie, wird sie modifiziert oder aufgegeben, wenn wir was Besseres haben.

Bei der statistischen Analyse gibt es neben unseren wissenschaftlichen Hypothesen auch rein statistische Fragen. Wenn wir einen Mittelwert in unserer Stichprobe finden, ist der sicher nicht identisch mit dem entsprechenden Parameter \(\mu\) in der Grundgesamtheit (Population). Es stellt sich also immer die Frage nach möglichen Unschärfen. Über die statistischen Hypthesen können wir Aussagen treffen, wenn wir den Gesetzen der Wahrscheinlichkeit (Stochastik) eine Chance geben, also wenn wir Zufallsstichproben ziehen. Diese Zufallsstichproben ziehen wir aber nicht aus der Grundgesamtheit, also allen Objekten oder Subjekten, für die unsere Theorie Gültigkeit beansprucht. Wir ziehen Stichproben in einem abgesteckten Zeitrahmen und unter den Bedingungen der Machbarkeit. Wer kein Telefon hat, wird nicht angerufen. Um dieser Unterscheidung nachdruck zu verleihen, unterscheide ich Grundgesamtheit und Auswahlgesamtheit. Für letztere gilt: Jedes Element der Auswahlgesamtheit hat eine von 0 verschiedene Chance in die Stichprobe zu gelangen.

  1. Könnte in der Auswahlgesamtheit der wahre Wert auch 0 sein, oder ein anderes Vorzeichen haben?
  2. Die Nullhypothese ist eine statistische Hypothese gegen Falschentscheidungen aufgrund von Zufallsziehungen.
  3. Nullhypothesen werden anhand von bekannten Verteilungen getestet.

Link zu einer guten App zum Probieren:
Hypothesen-testen ————————————————————————

LEF 1

Essayfragen

  1. Was ist der Unterschied zwischen unstandardisierten und standardisierten Kennwerten?

  2. Welche Masse der zentralen Tendenz kennen Sie?

  3. Welche Streumasse kennen Sie?

  4. Was kommt raus, wenn man die Covarianz einer Variablen mit sich selbst berechnet?

    1. Welche Skalenniveaus kennen Sie?

    2. Was macht eine Nominalskala aus?

    3. Was macht eine metrische Skala aus?

MC-Fragen

MC 1.1.

MC 1.1: Sind folgende Aussagen richtig oder falsch?

Punkte:

MC 1.2.

MC 1.2: Sind folgende Aussagen richtig oder falsch?

Punkte:

MC 1.3.

MC 1.3: Sind folgende Aussagen richtig oder falsch?

Punkte:

MC 1.4.

MC 1.4: Sind folgende Aussagen richtig oder falsch?

Punkte:

MC 1.5.

MC 1.5: Sind folgende Aussagen richtig oder falsch?

Punkte:

MC 1.6.

MC 1.6: Sind folgende Aussagen richtig oder falsch?

Punkte:

Für die MC der LEF 1: von Punkten, was % und etwa einer entspricht.


  1. Es ist recht ungünstig, dass die standardisierten Regressionskoeffizienten (fast) genauso heissen wie die Parameter \(\beta\) der b’s. Ich versuche das verbal deutlich zu machen, indem ich «beeta» mit langem ee sage, wenn ich die standardisierten Regressionkoeffizienten BETA meine und «betta» sage (mit sehr kurzem e), wenn ich die griechischen \(\beta\) meine. Wenn Sie irgendwo ausserhalb eines Statistiklehrbuchs BETA lesen oder (sogar immer häufiger) \(\beta\), dann verlassen Sie sich darauf, dass immer die standardisierten Regressionskoeffizienten gemeint sind und nie die Parameter der Regressionskoeffizienten in der Grundgesamtheit, weil wir die nie kennen werden und deshalb in empirisch wissenschaftlichen Publikationen so gut wie nie die Rede von unbekannten Parametern sein wird, sondern immer von den Kennwerten der Stichprobe, also den standardisierten Regressionskoeffizienten BETA. Didaktisch ist das blöd, aber es ist so und wenn ich jetzt was ganz Neues erfinde, dann bringt Ihnen das auch garnix.)↩︎