Deskriptive Statistik verstehen

Text
Read preview
Mark as finished
How to read the book after purchase
Font:Smaller АаLarger Aa

Stetige Variablen

Stetige Variablen sind Variablen, die im Prinzip eine unübersehbare, unbegrenzte Anzahl von Werten aufweisen können, auch in einem begrenzten Wertebereich.

► Beispiele

Spieldauer: Die Dauer eines Spieles ist üblicherweise auf 90 Minuten plus Nachspielzeit begrenzt. Die Werte bis zum Abpfiff sind aber nicht notwendigerweise überschaubar, da die Ausprägungen theoretisch unendlich genau sein können. Professionelle „Live-Ticker“ können bis auf Sekundenbruchteile genau sein, sofern es denn erforderlich ist. Die Dauer eines Spieles ist eine stetige Variable.

Public-Viewing-Besucher: Die Anzahl von Besuchern beim Public Viewing oder von Fanmeilen kann, bei ansprechenden Turnieren und einer günstigen Außenwitterung, oft nicht mehr genau gezählt werden, sondern ist nur noch als eine unübersehbare Anzahl darstellbar. Die Anzahl von Besuchern beim Public Viewing wird daher als stetige Variable betrachtet.

Anzahl der Zuschauer in einem Fußballspiel: Obwohl die Anzahl der maximal möglichen Zuschauer in einem Stadion auf einen bestimmten Wert begrenzt ist, können die möglichen Zuschauerzahlen unter diesem Wert theoretisch unendlich fein gemessen werden. Die Anzahl der Zuschauer in einem Fußballspiel ist eine stetige Variable.

Das Verhältnis der Skalenniveaus untereinander

Die Skalenniveaus sind hierarchisch geordnet. Jedes höhere Skalenniveau erfüllt auch die Anforderungen aller niedrigeren Niveaus. Die Nominalskala enthält nur die eindeutige Zuordnung nach „gleich“ / „ungleich“. Die Ordinalskala enthält zstzl. die größer-kleiner-Relation. Die Intervallskala enthält zstzl. die Äquidistanz der Ränge. Die Verhältnisskala enthält zstzl. einen Nullpunkt. Die Absolutskala enthält zstzl. eine natürliche Maßeinheit.

Je höher also das Skalenniveau, umso mehr Information lässt sich mit einem geeigneten statistischen Verfahren aus den Daten ableiten. Für „niedrige“ Skalen konzipierte Verfahren können auch auf höher skalierte Variablen angewendet werden (weil diese auch die Eigenschaft der niedrigeren Skalenniveaus mit enthalten). Allerdings ist dies mit einem Informationsverlust verbunden. Für Ordinaldaten konzipierte Verfahren können z.B. auch auf intervallskalierte Variablen angewendet werden, weil diese ebenfalls die größer/kleiner-Eigenschaft (neben der Nominalinformation) enthalten. Der Informationsverlust besteht darin, dass ein Ordinalverfahren für intervallskalierte Variablen nur die größer/kleiner-Relation (neben der Nominalinformation) erfasst, aber nicht mehr das Ausmaß der Unterschiede.

Voreinstellungen der verschiedenen Analysesoftware

Stringvariablen (syn.: alphanumerisch, „Character“ oder Text) werden üblicherweise als Nominalniveau interpretiert. Interessant wird es bei neu angelegten numerischen Variablen. Bestimmte Datenmerkmale führen dazu, dass die jeweilige Analysesoftware automatisch ein Skalenmessniveau zuweist. SPSS weist z.B. automatisch das Intervallskalenniveau zu, wenn z.B. die betreffende Variable mindestens 24 (Voreinstellung) gültige, eindeutige Werte aufweist (bei weniger als 24 gültigen Werten weist SPSS nicht das Ordinal-, sondern das Nominalniveau zu). Enthält die betreffende Variable das Format „Dollar“, „Spezielle Währung“ oder auch „Datum“ oder „Uhrzeit“ (jedoch nicht bei MONTH und WKDAY), so weist SPSS ebenfalls automatisch das Intervallskalenniveau zu.

Auch bei anderer Gelegenheit, z.B. der Migration von Daten aus einer Datenhaltung in eine andere, stellen Anwender nach dem Einlesen von Fremddaten fest, dass die numerischen Daten bereits vor bzw. während dem Einlesen fälschlicherweise als Strings definiert worden waren. Um ausgewertet werden zu können, müssen diese Daten zuvor das richtig Messniveau oder zumindest den korrekten Datentyp erhalten. Ein Umdefinieren des Typs von hunderten oder tausenden von Datenspalten „per Hand“ kommt für gewiefte Anwender selbstverständlich nicht infrage und kann mit Makroprogrammierungen ausgesprochen elegant gelöst werden (für SAS: vgl. Schendera, 2012, 2011; für SPSS: vgl. Schendera, 2007, 2005).

2.4 Konsequenzen des Messniveaus für die praktische Arbeit mit Daten

Die Bedeutsamkeit des Messniveaus hat Konsequenzen für die praktische Arbeit mit Daten:

Sind die Daten bereits erhoben, so gilt: Je höher das Skalenniveau, desto mehr Informationen lassen sich mit dem jeweils geeigneten Verfahren aus den Daten gewinnen. Stehen Anwender vor der Wahl zwischen Daten, die dasselbe Konstrukt auf einem hohen und einem niedrigen Skalenniveau beschreiben, dann sollten die Daten mit dem höheren Messniveau in der Analyse vorgezogen werden.

Beispiel

Der Ausgang eines Fußballspiels kann als Sieg, Unentschieden oder Niederlage beschrieben werden, also z.B. auf Ordinalniveau. Der Ausgang eines Fußballspiels kann aber auch in Tordifferenzen gemessen werden, z.B. +2, 0, -1. Es liegt auf der Hand, dass die Mannschaft, die mehr Tore geschossen hat, auch den Sieg davongetragen hat. Allerdings sind Tordifferenzen auf Intervallniveau und erlauben damit mehr (ggf. auch inhaltlich andere) Information auszudrücken.

Sind die Daten noch nicht erhoben, gelten folgende Daumenregeln für das Erheben von Daten. Generell gilt: Idealerweise sollten die Daten auf einem möglichst hohen Skalenniveau erhoben werden. Anstelle von Sieg, Unentschieden oder Niederlage könnte z.B. der Ausgang eines Fußballspiels in Tordifferenzen gemessen werden.


[1]Falls Kausalrelationen modelliert werden sollen, so sollten v.a. die abhängigen Variablen auf einem möglichst hohen Skalenniveau gemessen werden.
[2]
[3]Ein hohes Skalenniveau kann mittels Operationen des Daten-Managements (vgl. Schendera, 2005, 2004) technisch unkompliziert auf ein niedrigeres Skalenniveau vereinfacht werden (da es dieses ja enthält), allerdings immer begleitet von den Risiken des Informationsverlusts bzw. der Informationsverzerrung (vgl. Schendera, 2010, 14–15); umgekehrt bedarf es sehr überzeugender Argumente, ein niedrigeres Skalenniveau auf ein höheres Niveau anzuheben.

■ Während und nach dem Messen sollte gewährleistet sein, dass die Daten möglichst zuverlässig, also fehlerfrei, erhoben wurden. Für die Diskussion der Genauigkeit von Messungen und ihrer Verallgemeinerbarkeit gibt es mehrere, eher technische Begriffe, die im Folgenden erläutert werden sollen.

► Beispiele

Eindeutigkeit: Das Messergebnis ist eindeutig. Wird z.B. der Ausgang eines Fußballspiels protokolliert, so sollte „Unentschieden“ tatsächlich dafür stehen, dass keine der beiden Mannschaften gewonnen hat (und z.B. nicht dafür, dass man nicht weiß, welche). „Unentschieden“ in einer zweiten, völlig anderen Bedeutung…

Genauigkeit: Das Messergebnis ist möglichst genau. Auch sollte z.B. der Ausgang eines Fußballspiels (Sieg, Unentschieden, Niederlage) möglichst genau gemessen werden, z.B. in Toren, z.B. +2, 0, -1. Was natürlich nicht passieren sollte, ist, dass man anstelle von +2 dann -2 Tore protokolliert (sog. Protokollfehler). Man sagt auch: Die Güte einer Messung ist möglichst hoch. Die Güte (Genauigkeit) kann dabei in Reliabilität und Validität differenziert werden.

Objektivität: Das Messergebnis ist objektiv. Der Ausgang eines Fußballspiels sollte z.B. unabhängig davon gemessen werden, ob man Fan des einen oder anderen Teams ist. Nur weil die eigene Mannschaft z.B. sich wacker, aber vielleicht vergeblich gegen einen glänzend aufgelegten Gegner schlägt (vielleicht sogar in einem ausverkauften Auswärtsspiel), bedeutet dies nicht, dass damit dem Gegner in der Messung der verdiente Sieg unterschlagen werden darf.

Reliabilität (Zuverlässigkeit, Wiederholbarkeit): Das Messinstrument kommt bei wiederholten Durchgängen immer zum selben Ergebnis. Eine Torkamera wird eine bestimmte Ballposition, auch wenn sie mehrfach vorkommt, immer genau daraufhin beurteilen können, ob der Ball vor, auf oder hinter der Linie war. Das Messinstrument und die Messung sind hoch zuverlässig.

Validität (Richtigkeit, Gültigkeit): Das Messinstrument misst das, was es messen soll. Torkameras sind z.B. eine Messmethode und wurden speziell dafür entwickelt, zu erfassen, ob ein Ball hinter der Linie war oder nicht. Torkameras sind damit als Messmethode in Bezug auf die Beurteilung, ob ein Ball vor, auf oder hinter der Linie war, hoch valide. Das Messinstrument und damit die Messung sind hoch valide. Was für Schiedsrichter aus dem oft schnellen und unübersichtlichen Spielgeschehen heraus nicht im selben Maße gelten kann. Was für manche allerdings wiederum den Charme des Spiels ausmacht… Torkameras sind allerdings nicht valide in Bezug auf die Beurteilung, ob dem Tor ein Regelverstoß voranging (Abseits, Foul usw.). Dafür wurden sie aber auch nicht entwickelt… Daran schließt sich nun eine Differenzierung in interne und externe Validität an, nämlich die Schlussfolgerungen anhand der erzielten Ergebnisse.

Die interne Validität drückt z.B. aus, ob die Messung für die eigentliche Fragestellung gültig ist. Der Ausgang eines Fußballspiels (Sieg, Unentschieden, Niederlage) sollte möglichst so gemessen werden, dass vom Ergebnis her auch auf das untersuchte Konstrukt zurückgeschlossen werden kann. Aus der Differenz geschossener Tore kann z.B. auf Sieg usw. geschlossen werden. Tore sind also eine gültige Messung dafür, wer dieses Spiel (nicht) gewonnen hat. Mit Konstrukten wie z.B. Passgenauigkeit, Zweikampfstärke oder Stadiongröße wäre dieser Schluss nicht richtig bzw. gültig. Die externe Validität drückt dagegen aus, ob die Messung an der Stichprobe auf die Grundgesamtheit verallgemeinert werden kann. Ein Ergebnis kann z.B. dann verallgemeinert werden, wenn die Stichprobe alle Merkmale einer repräsentativen Zufallsstichprobe aufweist, oder wenn die Stichprobe z.B. die Grundgesamtheit ist, z.B. bei einer Vollerhebung. Man stelle sich die Frage, ob und wann es Sinn macht, Messungen mit geringer interner Validität auf externe Validität zu prüfen.

 

Merkhilfe Was haben Objektivität, Reliabilität und Validität mit Torjägern zu tun? Meine Güte!

Werden sich u.a. Ali Daei, Pelé, Lionel Messi, Gerd Müller, Uwe Seeler oder Zlatan Ibrahimović wundern, dass sie in einem Buch zur deskriptiven Statistik erwähnt werden (vgl. Gisler, 2013)? Vermutlich nicht. Objektivität: Der Ball ist hinter der Linie. Torkamera, Schiedsrichter, Zuschauer, und auch der Gegner sind sich einig. Die Güte von Torschützen wird mittels zwei weiterer Kriterien beurteilt: Hohe Validität (Gültigkeit, Richtigkeit) bedeutet, dass ein Torjäger bei jedem Schuss ins Tor trifft, also bei jedem Versuch einen Treffer erzielt. Hohe Validität bedeutet allerdings nicht, dass ein Torjäger den Schuss dabei immer an dieselbe Stelle platzieren muss. Der Ball landet manchmal in der linken oberen Torecke, manchmal in der Mitte, knapp unter der Latte usw. Hauptsache, er ist drin… Würde ein Torjäger dagegen immer an dieselbe Stelle im Tor treffen, sozusagen als „Markenzeichen“, wäre dies gleichzeitig auch eine hohe Reliabilität (Zuverlässigkeit, Präzision). Hohe Validität und hohe Reliabilität machen zusammen die Güte eines Torjägers aus. Einen Spieler, der immer das Tor verfehlt, und das auch noch in alle Himmelsrichtungen, kann man alleine wegen seiner geringen Validität und Reliabilität kaum als Torjäger bezeichnen. Besser sieht es bei Spielern aus, die ziemlich reliabel auf den Punkt zielen, manchmal eben doch nicht genau genug („knapp vorbei“) und manchmal doch. Beim Elfmeter schadet eine etwas reduzierte Reliabilität nicht (der Torhüter muss ja wirklich nicht genau wissen, wohin sie zielen werden), beim Messen allerdings schon. Da will man das Ausmaß zufälliger Fehler so gering wie möglich halten. Hauptsache, es wird überwiegend ins Tor getroffen, der systematische Fehler ist also so gering wie möglich. Was haben wir gelernt? Hohe Güte: Hohe Reliabilität (=geringer zufälliger Fehler, =Präzision) + hohe Validität (=geringer systematischer Fehler, =Richtigkeit).

Für die Fußballfans unter uns

Hohe Reliabilität („immer auf den Punkt“) + hohe Validität („immer ins Tor“) = hohe Genauigkeit.

Objektivität: „eindeutig hinter der Linie“.

Mit diesen abschließenden Ausführungen zur Bedeutsamkeit des Messniveaus soll dazu übergeleitet werden, was man sonst noch alles vor dem Beschreiben von Daten wissen sollte.

3 Vor dem Anpfiff: Was sollte ich vor dem Beschreiben über die Daten wissen?

„Wir stellen Fragen, ohne uns durch Antworten irritieren zu lassen.“

Werner Hansch

Eine deskriptive Statistik kann durchaus mit Fußball als Leistungssport verglichen werden. Es braucht viel Training, um eine gewisse Fitness zu erlangen, es ist oft genug ein Kampf gegen die Zeit und es braucht viel Vorbereitung und Erfahrung, um z.B. ein versuchtes Foulspiel seitens der „Gegner“ (wie z.B. verborgene Strukturen oder suboptimale Datenqualität) rechtzeitig erkennen und souverän damit umgehen zu können. Ist ein entsprechendes Niveau erreicht, bringt der eigene souveräne Auftritt das Team mit einer Galavorstellung vor einem erwartungsfrohen Publikum weiter. Damit es bei bester Vorbereitung und Motivation keine Überraschungen gibt, v.a. von der unangenehmen Sorte, stellt Kapitel 3 verschiedene Fraugen zusammen, die vor der Durchführung einer deskriptiven Statistik geklärt sein sollten.

Kapitel 3 erweitert dabei den Blick auf Informationen außerhalb einer Datentabelle, den Kontext der Daten, also Informationen, die man nicht notwendigerweise durch das Analysieren einer Datentabelle erfährt. Den Anfang macht Abschnitt 3.1, der fragt: „Wie wurden die Daten erhoben?“ und stellt damit z.B. Fragen nach dem Messvorgang. Abschnitt 3.2 stellt Fragen nach verborgenen Strukturen, wie z.B. Ziehung und Auswahlwahrscheinlichkeit. Anhand von Entdeckungsreisenden in Sachen Fußball wird an einem Beispiel einer Befragung im Fußballstadion erläutert, was eine naive von einer systematischen Ziehung und Gewichtung von Daten unterscheidet. Aber selbst wenn diese Frage zufriedenstellend geklärt ist, ist damit noch nicht selbstverständlich, dass eine deskriptive Statistik erstellt werden kann. Abschnitt 3.3 fragt nach der Fitness der Daten („Darf eine deskriptive Statistik überhaupt erstellt werden?“) und stellt mehrere mögliche Spielverderber vor. Abschnitt 3.4 ist eine Art Exkurs („Auszeit“) und stellt Strukturen von Datentabellen vor, welche technische Eigenschaften (Attribute) sie haben und wie sie u.a. von Software verarbeitet werden. Abschnitt 3.5 widmet sich abschließend der womöglich spannendsten Frage: „Was kann ich an meinen Daten beschreiben?“ Die Antwort darauf muss natürlich lauten: „Es kommt darauf an.“

Checkliste

Überblick über die Datenhaltung

■ Wer ist verantwortlich für die Haltung der Daten? z.B. Datenbankadministratoren

■ Wer ist verantwortlich für die Daten in der Haltung? z.B. Data Provider

Überblick über die Entstehung der Daten

■ Messung: Gegenstand, Einheit, Instrument, Messvorgang, Merkmalsträger

■ Ziehung: Vollerhebung/Stichprobe, Strukturierung nach Strata (syn.: Segmenten) und Fällen (Anzahl, Gewichte), Berücksichtigung eines Zufallsprinzips

Überblick über die Fitness der Daten:

■ Grundlegende Kriterien sind: Vollständigkeit, Einheitlichkeit, Doppelte, Missings, Ausreißer, Plausibilität

■ Erfahrene Spieler wissen: Diese „Gegner“ sind gefährlich.

Überblick über die Strukturen einer Tabelle

Senkrecht: Spalten

Waagerecht: Zeilen

In der Überschneidung: Zellen

Zellen: Einträge, Missings (Datenlücken)

3.1 Das Spiel beginnt: Wie wurden die Daten erhoben?

„Es gibt nur einen Ball. Wenn der Gegner den Ball hat, stellt sich die Frage, warum hat er den Ball?“

Giovanni Trappatoni

Wie eingangs bereits angedeutet, unterscheiden sich Werte von Zahlen dadurch, dass bei ihnen ein Referenzsystem hinzukommt, in anderen Worten: ein Messvorgang und eine Maßeinheit. Werte (z.B. zugewiesene Zahlen) beschreiben etwas:

■ den gemessenen Gegenstand: Werte repräsentieren den Messgegenstand, das gemessene Merkmal. Die Anzahl an Zuschauern in einem Stadion z.B. die Größe des Stadions, die Attraktivität der angesetzten Begegnung oder auch die Verfügbarkeit der Tickets auf dem Markt.

■ die Einheit der Messung: Im Allgemeinen werden in einem Stadion während der Spiele über ein Jahr hinweg eine Menge Getränke verkauft. Die Menge der verkauften Getränke kann z.B. in Tanks, Fässern, Hektolitern, Litern oder auch Getränken (z.B. Anzahl der Pils oder Halben) und entsprechend in einer anderen Einheit und damit auch einem anderen Skalenniveau ausgedrückt werden.

■ das eingesetzte Messinstrument: also die Technik, mit der die Daten erhoben wurden. Der Getränkeverkauf kann z.B. mit verschiedenen Instrumenten erfasst werden: Die Menge der leeren Tanks könnte z.B. mittels Beobachtung erfasst werden. Die Menge der Fässer kann z.B. anhand von Lieferscheinen (Protokolle) zwischen Stadion und Brauerei gemessen werden. Die Anzahl von Hektolitern oder Litern kann z.B. anhand von Messfühlern an Tankleitungen im Leitungsnetz erhoben werden. Der Verkauf konkreter Getränke, z.B. Premium- oder Spezialitäten-Bier kann z.B. über das Instrument der Kassenbelege genau erfasst werden, darin z.B. auch die Anzahl Pils oder Halbe usw. Befragungen (z.B. Fragebögen oder Interviews) können ebenfalls die Anzahl konsumierter Getränke erfassen.

Beispiele

Je nach Qualität des Messinstruments ist die Messung entsprechend präzise: Messfühler sollen bis auf Milliliter genau messen können, eine Messung fällt entsprechend sehr präzise aus. Das Zählen von Tanks oder Tanklastwagen erscheint ähnlich präzise, bis auf die Ausnahme der Konsequenz eines Messfehlers: Wird z.B. ein Tank beim Zählen per Beobachtung übersehen, fällt die Messung des Getränkeverkaufs insgesamt deutlich ungenau aus. Schwierig ist das Instrument der Befragung, z.B. mit Fragebogen oder Interview. Um z.B. die Getränkemenge über ein Jahr hinweg genau zu erfassen, müsste jeder Stadionbesucher einzeln befragt werden. Abgesehen von solch logistischen Problemen sind möglicherweise ergebnisverfälschende Risiken der Instrumente nicht auszuschließen. Wird in anonymen Fragebögen eventuell die Wahrheit gesagt, so wird die Anzahl der konsumierten (v.a. alkoholischen) Getränke im Interview (erst recht im Beisein von Frau, Freundin oder auch Freunden und Helfern) tendenziell niedriger angegeben, als sie wirklich war. Die Umfrageliteratur kennt zahlreiche erklärungsrelevante Effekte, z.B. der vorhandenen oder getrübten Erinnerung, der sozialen Erwünschtheit oder auch des gewieften Hindurchschlawinerns.

■ die vorgenommene Messung: Werte repräsentieren den Messvorgang. Ein Messvorgang ist das Zuweisen von Eigenschaften. Ob das Messen von Eigenschaften überhaupt ohne Weiteres möglich ist, ist wissenschaftstheoretisch höchst umstritten und längst nicht so eindeutig, wie es vielerorts behauptet wird. Können Maße wie z.B. Tore, Spielanteile oder Ballbesitz tatsächlich die Leistungsunterschiede zwischen zwei Mannschaften wiedergeben oder sagen sie etwas über den Rangplatz einer Mannschaft in der Tabelle aus? Die Diskussion des Messvorgangs wird v.a. bei der Interpretation wieder wichtig.

■ den bzw. die Träger des gemessenen Gegenstands bzw. Merkmals: Werte repräsentieren die sog. Merkmalsträger. Anders ausgedrückt, Merkmalsträger (und damit die an ihnen vorgenommenen Messungen) repräsentieren Annahmen über die Gruppen, zu denen sie gehören (oder eventuell eben auch nicht).

Dieser Punkt ist von besonderer Bedeutung für die Interpretation der deskriptiven Statistik und wird in einem eigenen Abschnitt (vgl. 3.2) erläutert und im Abschnitt für die deskriptive Statistik mit Gewichten (vgl. 7.1) vertieft werden.


Abb. 4: Das Verhältnis von Erhebungsgesamtheit, Zielgesamtheit und Inferenzpopulation

Die Frage danach, wie die Daten erhoben wurden, ist auch eine Frage nach der sog. (Zufalls-)Ziehung von Daten. Dazu soll kurz in Konzepte und Vokabular der Umfrageforschung eingeführt werden (siehe Abb. 4: vgl. Lohr, 2010, 3–4; Schnell et al., 1999, 253–255; klassisch: Cochran, 1972, 20–24).

Analysten, die mit Datentabellen arbeiten, können dieses Schema in etwa so verstehen und ihre Ergebnisse entsprechend einordnen:

Das Schema

Eine Datentabelle enthält die Messwerte der Erhebungsgesamtheit (sofern die Ausfälle als kontrollierte Missings im Datensatz hinterlegt sind), ansonsten nur der Inferenzpopulation. Wenn also ein Sampling Frame eine Zielgesamtheit annahmengeleitet perfekt definiert (und damit weder Over- noch Undercoverage zu verzeichnen sind), und wenn die konkrete Erhebung keine Ausfälle hat, dann entspricht die Inferenzpopulation (sei es Vollerhebung, sei es Stichprobe) der Erhebungsgesamtheit, und diese wiederum der Zielgesamtheit. Missings (Ausfälle) sind ein Hinweis darauf, dass die Inferenzpopulation womöglich nicht deckungsgleich mit der Erhebungsgesamtheit ist, was eine gewisse Zurückhaltung bei der Interpretation der erstellten deskriptiven Statistik nahelegt.

 

■ Die Grundgesamtheit (Population, population) ist die vollständige Menge aller Merkmalsträger, aus der die Stichprobe gezogen werden soll. Beispiel: Fans im Stadion. Die Stichprobe (sample) ist eine Teilmenge der Elemente der Grundgesamtheit. Elemente einer Stichprobe sollten i. Allg. nach dem Zufallsprinzip gezogen werden. Im Beispiel ist dies eine (zufällig gezogene) Auswahl der Fans im Stadion.

■ Bei einer Vollerhebung werden alle Elemente der Grundgesamtheit erhoben, bei einer Teilerhebung nur eine Teilmenge (vgl. Stichprobe). Beispiel: alle Fans im Stadion (Vollerhebung), ausgewählte Fans im Stadion (Teilerhebung).

■ Eine Grundgesamtheit ist oft in immerwährender Veränderung, und daher schwierig zu erfassen. Die Grundgesamtheit wird daher i. Allg. vor Erhebungen und Analysen annahmengeleitet als Zielgesamtheit (Zielpopulation, target population, angestrebte Grundgesamtheit; s.u.) präzisiert, für die die Aussagen gelten sollen. Beispiel: Fans am 02.05.1984 im Gelsenkirchener Parkstadion beim 6:6 n.V. zwischen Schalke 04 und Bayern München (DFB-Pokal, Halbfinale).

■ Die Gesamtheit, aus der die Stichprobe gezogen wird (Erhebungsgesamtheit), sollte idealerweise deckungsgleich sein mit der Gesamtheit, über die Aussagen getroffen werden sollen (Zielgesamtheit). Erhebungsgesamtheit (Auswahlgesamtheit, sampled population) umfasst alle möglichen Elemente, denen der Sampling Frame die Chance gibt, in die Stichprobe gezogen zu werden. Die Zielgesamtheit umfasst alle möglichen Elemente, für die entsprechende Annahmen, Theorien und Schlüsse gelten sollen. Ist die Erhebungspopulation nur eine Teilmenge der Zielpopulation, gelten die Schlüsse nur für die Erhebungspopulation, nicht die Zielpopulation. Ein Auseinanderklaffen zwischen Erhebungs- und Zielgesamtheit kann z.B. dann passieren, wenn entweder wichtige Facetten der Zielgesamtheit nicht im Sampling Frame eingeschlossen („undercoverage“) oder massive Ausfälle während des Samplings zu beklagen sind (vgl. Schema). Beispiel: Die Aussagen sollen für Fans im Stadion gelten (Grundgesamtheit). Die Erhebung wird auch an anwesenden Fans im Stadion vorgenommen (Erhebungsgesamtheit); allerdings sind v.a. Fans von auswärts noch nicht im Stadion, da sie noch im Stau oder in den Einlasskontrollen stecken. Die Erhebungsgesamtheit ist quantitativ (N) und qualitativ (Bias) nur eine Teilmenge der Ziehungsgesamtheit; die Schlüsse können nur für die Erhebungsgesamtheit, nicht die Ziehungsgesamtheit gelten. Die sog. Inferenzpopulation ist die Stichprobe im engeren Sinne, nämlich die Erhebungsgesamtheit abzüglich der Ausfälle.

Merkmalsträger (Beobachtungseinheit, observation unit, element) sind Elemente der Grundgesamtheit und individuelle Träger des zu erhebenden Merkmals, i. Allg. sind Einzelpersonen die feinste Einheit einer Erhebung. Beispiel: Ein einzelner Fan auf einem nummerierten Sitzplatz im Stadion ist ein Element.

Sampling Units (Ziehungseinheiten, -ebenen): Wenn Einzelpersonen als feinste Einheit zur Ziehung nicht zur Verfügung stehen, kann auf eine höhere Ebene gewechselt werden, z.B. Familien, Haushalte, Wohnblöcke oder Orte (in denen wiederum Personen leben und zufällig erhoben und befragt werden können). Beispiel: Ein nicht nummerierter Tribünenbereich kann eine gröbere Sampling Unit sein, aus der wiederum einzelne Fans zufällig erhoben werden.

Sampling Frame (Ziehungsliste): Datenbank, Liste, Karte von Observation bzw. Sampling Units einer Grundgesamtheit, aus denen eine Stichprobe gezogen werden kann. Beispiel: Mittels eines elektronischen Ticketsystems könnten z.B. Fans auf nummerierten Sitzplätzen per Zufallsgenerator für eine Erhebung ausgewählt und später im Stadion angesprochen werden.

Ausfälle sind Merkmals träger, die zur Befragung aus einem Sampling Frame ausgewählt wurden. Ein Merkmalsträger wird zum Ausfall, wenn Merkmalsträger nicht erreichbar waren, nicht antworten konnten oder wollten. Würden Merkmalsträger thematisch zur Studie passen, waren aber gar nicht im Sampling Frame enthalten (und konnten daher auch nicht daraus zufällig gezogen werden), dann handelt es sich um ein sog. Undercoverage.

Zufallsprinzip: Eine Zufallsziehung ist, wenn jedes Element dieselbe Chance hat, in eine Stichprobe gezogen zu werden. Beispiel: Ein Zufalls generator schließt z.B. bestimmte Präferenzen oder Abneigungen bei der (Nicht-)Auswahl von Elementen bei der Ziehung im Stadion aus.

Checkliste

„Sampling Talk“:Kenne ich zentrale Begriffe?

■ Grundgesamtheit, Zielgesamtheit, Erhebungsgesamtheit

■ Vollerhebung, Teilerhebung, Stichprobe

■ Sampling Frame, Over-, Undercoverage, Ausfälle

■ Observation Units (Person), Sampling Unit (Haushalt)

■ Zufallsprinzip…

„Data Know“:Was weiß ich über die Messung der Daten?

■ Messgegenstand: Was messen die Daten?

■ Messeinheit: In welcher Einheit sind die Daten?

■ Messinstrument: Mit welcher Methode wurde gemessen?

■ Wie präzise ist das Instrument? Welche Konsequenzen haben Messfehler?

■ Messvorgang: Erfasst die Messung tatsächlich den Gegenstand?

■ Merkmalsträger: Wie wurden die Merkmalsträger für die Messung ausgewählt?

3.2 Was sind verborgene Strukturen? Ziehung und Auswahlwahrscheinlichkeit: Ein Stadion als eigene Welt

„Ball rund, Stadion rund, ich rund.“

Tschik Cajkovski

Fußballstadien sind ein eigener Mikrokosmos, eine eigene Welt. Wer den Aufbau eines Fußballstadions versteht, der versteht auch grundlegende Prinzipien der Statistik. Um den Bogen vom Besuch eines Fußballstadions zur Statistik zu schlagen, stellte ich im vorangegangenen Abschnitt einige Grundbegriffe vor. Ich rücke sie nun in den Zusammenhang, um zwei besondere Aspekte herauszuarbeiten, die man ebenfalls vor dem Erstellen einer deskriptiven Statistik wissen sollte. Bei diesen Aspekten handelt es sich um Strukturen, die entweder gar nicht in der Datentabelle enthalten (Ziehung und Auswahlwahrscheinlichkeit; vgl. 3.2) oder nur mittels Zusatzinformation nachvollziehbar sind (Gewichtung; vgl. 7.1), also um teilweise oder sogar ganz verborgene Strukturen.

Werte repräsentieren (unter anderem) den mittels Instrumenten gemessenen Gegenstand bzw. das erhobene Merkmal von sog. Merkmalsträgern. Es stellt sich dabei zwar auch die Frage, wer die Merkmalsträger sind (dies kann i. Allg. durch die Analyse der erhobenen Merkmale beantwortet werden). Es stellt sich vor allem die Frage, wie gerieten die Merkmalsträger in die Messung? Wie also wurden die Merkmalsträger für die Messung ausgewählt?

Besondere Hinweise

Die folgenden Ausführungen sind als eine eher informelle Einführung in die Grundlagen von Designstrukturen, Stichprobenziehung und Gewichtung zu verstehen. Forschungstechnisch soll damit zunächst die Aufmerksamkeit auf die notwendig sorgfältige Interpretation von Designs, Ziehung und Gewichtung gerichtet werden. Die Einführung wird daher zunächst die Aufmerksamkeit auf das notwendige Hinterfragen und Nachvollziehen des Entstehungszusammenhangs der zu beschreibenden Daten lenken.

Man stelle sich eine Welt vor, vielleicht ein eigener Planet oder eine Insel, auf der sich das ganze Leben ausschließlich auf den Rängen innerhalb eines Fußballstadions abspielt. Es gibt sozusagen nur den Planeten oder die Insel, und darauf nur ein Fußballstadion. Für manche Fußballfans ist dies bereits heute gelebte Realität. Für diese und unseren Schwenk hin zur Statistik setzen wir jetzt die bedeutungsvollen Worte: Außerhalb des Stadions existiert nichts.

Man stelle sich nun vor, Entdeckungsreisende landen auf dieser für manche paradiesischen Insel, haben vielleicht sogar etwas von Fußball gehört (oder verwechseln es womöglich noch mit Football, es sei verziehen), und möchten nun mehr über die Besucher dieses einzigen Stadions auf der Insel des „Großmutterlands des Fußballs“ in Erfahrung bringen. Wissbegierig wie Entdeckungsreisende nun mal sind, begeben sie sich schnurstracks ins Stadion, um sich vor Ort einen unmittelbaren Eindruck der örtlichen Gebräuche zu verschaffen. Anders ausgedrückt: Das Ziel ist, etwas über alle Fans im Stadion zu erfahren, z.B. welcher Mannschaft sie anhängen, ob sie lieber sitzen oder aktiv Choreographien mitgestalten, wie hoch ihr Einkommen ist usw.

Der Einfachheit halber möchten wir jetzt für den Zeitpunkt des Besuchs annehmen, dass im Stadion die Begegnung nur zweier Mannschaften angesetzt ist, die der „Roten“ gegen die „Gelben“. Aus Gründen der Fairness sei kein Team genannt. Der Phantasie des im Allgemeinen nicht nur einem Team anhängenden Lesers sei es überlassen, ob es sich bei den Spielern (je nach Spielzeit) im roten Trikot um Manchester United, Arsenal, Bayern München, den FC Thun oder um Kaiserslauterns „rote Teufel“ handeln könnte. Bei den Spielern im gelben Trikot könnte es sich um Borussia Dortmund, die Berner Young Boys oder auch um den Villarreal CF handeln, wenn denn die Frage geklärt wäre, wie auf einer Insel mit nur einem Stadion mit Heim- und Auswärtstrikots verfahren wird.

You have finished the free preview. Would you like to read more?