Skip to main content

1990 | Buch

Verteilungsfreie Methoden in der Biostatistik

verfasst von: Prof. Dr. Jürgen Bortz, Prof. Dr. Gustav Adolf Lienert, Dr. Klaus Boehnke

Verlag: Springer Berlin Heidelberg

Buchreihe : Springer-Lehrbuch

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Wahrscheinlichkeitslehre
Zusammenfassung
Die Wahrscheinlichkeitslehre ist ein elementarer Bestandteil der Statistik. Die mathematische Wahrscheinlichkeitslehre umfaßt ein kompliziertes System unterschiedlicher Regeln und Gesetzmäßigkeiten, die hier nur insoweit dargestellt werden, als es für das Verständnis der verteilungsfreien Methoden erforderlich ist. Wir behandeln zunächst die wichtigsten Grundlagen der Wahrscheinlichkeitsrechnung und gehen anschließend auf die Darstellung einiger ausgewählter Wahrscheinlichkeitsverteilungen über.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 2. Beobachtungen, Hypothesen und Tests
Zusammenfassung
Ein wichtiges — wenn nicht gar das wichtigste — Anliegen der empirischen Forschung ist darin zu sehen, allgemeine Vermutungen (Hypothesen) über die Art der Beziehung von Merkmalen an der Realität zu überprüfen. Dazu werden hypothesenrelevante Ausschnitte der Realität empirisch beobachtet und der hypothetischen Erwartung gegenübergestellt. Die Entscheidung, ob die empirischen Beobachtungen die Hypothese stützen oder nicht, erfordert einige Überlegungen, die Gegenstand dieses Kapitels sind.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 3. Datenerhebung und Datenaufbereitung
Zusammenfassung
Im folgenden werden Fragen des Messens sowie der Datenerhebung und -aufbereitung für quantitative Untersuchungen behandelt. Dabei wird die Vielfalt empirischen Materials erkennbar, das für die statistische Hypothesenprüfung geeignet ist. Grundsätzlich sei angemerkt, daß die zu untersuchende Fragestellung in der Regel nicht eindeutig vorschreibt, welche Art von Daten zu erheben und damit welcher statistische Test einzusetzen ist. Viele Merkmale der Bio- und Humanwissenschaften lassen sich auf unterschiedliche Weise operationalisieren, mit dem Effekt, daß je nach Art der Operationalisierung Daten mit unterschiedlichem Informationsgehalt auszuwerten sind.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 4. Verteilungsfreie und parametrische Tests
Zusammenfassung
Ehe wir in Kap. 5 vom allgemeinen in den speziellen statistischen Teil eintreten, wollen wir noch einige wichtige Überlegungen darüber anstellen, wann parametrisch (bzw. verteilungsgebunden) und wann verteilungsfrei (bzw. non- oder nichtparametrisch; zur Erläuterung dieser Begriffe vgl. S. 35f.) getestet werden sollte. Wir haben in 2.2.5 bereits zur Wahl eines geeigneten statistischen Tests Stellung bezogen, aber dort implizit angenommen, daß über die Frage, ob eine parametrische oder eine verteilungsfreie Auswertung vorgenommen werden soll, bereits entschieden ist; diese Vorentscheidung haben wir nunmehr zu treffen bzw. zu begründen.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 5. Analyse von Häufigkeiten
Zusammenfassung
Die einfachste Stufe der Messung, so haben wir in 3.1.2 festgestellt, besteht in der Zuordnung von Individuen zu 2 oder mehr einander ausschließenden und alle Merkmalsträger umfassenden Kategorien. Durch Auszählung des Auftretens der Kategorien eines dichotomen, attributiven, graduierten oder polychotomen Merkmales (vgl. 3.2.1) in einer Stichprobe erhält man Häufigkeitsverteilungen, deren Analyse Gegenstand dieses Kapitels ist. Dabei ist es unerheblich, ob die Kategorien auf nominalem (z. B. Rinderrassen), gruppiert-ordinalem (z. B. soziale Schichten) oder gar kardinalem Skalenniveau (z. B. Körpergewichtsklassen) gebildet wurden. Die entscheidende Frage ist die, ob sich die erhobenen Daten so adaptieren lassen, daß sie als Häufigkeiten in Erscheinung treten.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 6. Analyse von Rangdaten
Zusammenfassung
In diesem Kapitel wollen wir verteilungsfreie Testverfahren vorstellen, die angewendet werden können, wenn Daten mit mindestens ordinalem Meßniveau auszuwerten sind. Ohne an dieser Stelle noch einmal ausführlich auf meßtheoretische Einzelheiten einzugehen (vgl dazu 3.1), sei angemerkt, daß es dabei unerheblich ist, ob originäre Rangdaten vorliegen oder ob von Daten höherer Skalendignität nur die ordinale Information genutzt wird. Man beachte jedoch, daß originäre Rangdaten nur dann zu verwenden sind, wenn sich die Rangordnungsprozedur auf alle Individuen der zu vergleichenden Stichproben bezieht. Rangordnungen, die jeweils nur für die Individuen einer Stichprobe erstellt wurden, sind für stichprobenvergleichende Untersuchungen ungeeignet (vgl. dazu auch S. 292).
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 7. Analyse von Meßwerten
Zusammenfassung
Will man Meßwerte mit kardinalem Meßniveau ohne Informationsverlust, d. h. ohne Transformation in Rangwerte, zum Zwecke der statistischen Hypothesenüberprüfung nutzen und kommen die dazu eigentlich indizierten parametrischen Verfahren nicht in Betracht, weil — insbesondere bei kleineren Stichproben — die untersuchten Merkmale nicht normalverteilt sind, stehen dem Anwender eine Reihe von Testverfahren zur Verfügung, die Gegenstand des vorliegenden Kapitels sind. Das Problem der vollständigen Nutzung nicht normalverteilter Meßwerte zur Signifikanzprüfung wurde bereits früh von Fisher (1936) in Angriff genommen und von Pitman (1937) systematisch bearbeitet. Zur Lösung dieses Problems dient u. a das sogenannte Randomisierungsverfahren, weshalb die einschlägigen Signifikanztests auch Randomisierungstests heißen. (Eine Zusammenfassung der Entwicklung der Randomisierungstests findet man bei Edgington, 1980.) Mit ihrer Hilfe können sowohl unabhängige (7.1) als auch abhängige Stichproben (7.2) von Meßwerten verglichen werden. Dieses Prinzip wird auch verwendet, wenn es um den Vergleich einer empirischen Verteilung mit einer theoretisch erwarteten Verteilung geht (7.3). Ein allgemeiner Algorithmus zur Konstruktion exakter Prüfverteilungen für zahlreiche Rang-und Randomisierungstests wurde von Streitberg u. Römel (1987) entwickelt.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 8. Zusammenhangsmaße und Regression
Zusammenfassung
Werden 2 Merkmale an jedem Individuum einer Stichprobe erhoben, besteht die Möglichkeit festzustellen, ob die beiden Merkmale über die Identität der Merkmalsträger zusammenhängen (korrelieren) und ob dieser Zusammenhang (die Korrelation) statistisch signifikant ist. Der Begriff des Zusammenhanges bzw. der Korrelation wird hier sehr allgemein verwendet. Er umfaßt im engeren Sinne die Korrelation zweier kardinalskalierter Merkmale (linearer Zusammenhang), die Korrelation zweier ordinalskalierter Merkmale (monotoner Zusammenhang) oder auch die Korrelation zweier nominalskalierter Merkmale (kontingenter Zusammenhang). Dieser Gliederung folgend behandeln 8.1 bis 8.3 Zusammenhangsmaße für die 3 genannten Skalenniveaus, beginnend mit Verfahren zur Bestimmung kontingenter Zusammenhänge. Die Korrelationsmaße für kardinale Messungen werden dabei nur kurz erwähnt, da diese üblicher Gegenstand der parametrischen Statistik sind. (Eine vergleichende Übersicht der wichtigsten Zusammenhangsmaße findet man bei Kubinger, 1989.)
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 9. Urteilerübereinstimmung
Zusammenfassung
Kapitel 8 zeigte, wie Zusammenhangsmaße ermittelt und überprüft werden können. Die dort übliche Frage lautete, ob zwischen 2 Merkmalen X und Y, die an einer zufälligen Auswahl von Untersuchungseinheiten erhoben wurden, ein Zusammenhang besteht. Für ordinalskalierte Merkmale haben wir zur Beantwortung dieser Frage Spearmans ϱ und Kendalls τ kennengelernt.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 10. Verteilungsfreie Sequenzanalyse
Zusammenfassung
Unter Sequenzanalyse versteht man ein seit 1943 von der Statistical Research Group der Columbia University New York entwickeltes Entscheidungsverfahren, das während des Krieges geheimgehalten und 1945 bzw. ausführlicher 1947 von ihrem Sprecher Wald veröffentlicht wurde. Das Verfahren diente zunächst der fortlaufenden Qualitätskontrolle in der kriegsindustriellen Produktion, fand jedoch bald danach Eingang in die unterschiedlichsten Anwendungsfelder. Die ersten deutschsprachigen Publikationen legten Schmetterer (1949) und Wette (1953) vor, wobei letzterer den Begriff des Ergebnisfolgeverfahrens (Folgetests) empfohlen hat. Monographien stammen von Armitage (1975) für Biologen und von Wetherill (1975) für Meteorologen, ferner — im Blick auf Mustererkennungsanwendungen — von Fu (1968). Mediziner werden am meisten von den Ausführungen Mainlands (1967, 1968), Coltons (1968) und dem Buch von Armitage (1975) profitieren. Eine gute Einführung bringt das Lehrbuch von Erna Weber (1980, Kap. 55–63), eine anwendungsbezogene Kurzfassung das Buch von Sachs (1969, Kap. 22). Weitere Darstellungen der inzwischen stark expandierten Sequentialstatistik findet man bei Ghosh (1970), Büning u. Trenkler (1978, S.301 ff.) sowie Fisz (1976, S.676 ff.). Lesern, die sich primär für den mathematischen Hintergrund der Verfahren interessieren, seien z.B. die Arbeiten von Govindarajulu (1975), Heckendorf (1982) und Eger (1985) empfohlen. Diepgen (1987) beklagt die seltene Verwendung der Sequentialstatistik in der psychologischen Methodenlehre.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Kapitel 11. Abfolgen und Zeitreihen
Zusammenfassung
Wenn aus einer Grundgesamtheit sukzessive Einzelbeobachtungen entnommen werden, resultiert eine Abfolge von Beobachtungen. Dabei interessiert häufig die Frage, ob die Beobachtungen zufällig aufeinander folgen (H0) oder nicht (H1). Verfährt man bei der sukzessiven Erhebung der Beobachtungen so, daß neben der Ausprägung des untersuchten Merkmals auch der Zeitpunkt der Erhebung mit registriert wird, erhält man eine zeitliche Abfolge oder eine Zeitreihe von Beobachtungen. In diesem Falle läßt sich die H1, nach der man eine nicht durch Zufall erklärbare Ereignisabfolge erwartet, durch die Annahme einer speziellen Regelmäßigkeit bzw. eines Trends in der Zeitreihe präzisieren. Die Frage, wie man überprüfen kann, ob die Beobachtungen zufällig aufeinander folgen bzw. ob zeitgebundene Beobachtungen einem zuvor spezifizierten Trend oder einer speziellen Systematik folgen, soll in diesem Kapitel beantwortet werden.
Jürgen Bortz, Gustav Adolf Lienert, Klaus Boehnke
Backmatter
Metadaten
Titel
Verteilungsfreie Methoden in der Biostatistik
verfasst von
Prof. Dr. Jürgen Bortz
Prof. Dr. Gustav Adolf Lienert
Dr. Klaus Boehnke
Copyright-Jahr
1990
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-22593-6
Print ISBN
978-3-540-50737-6
DOI
https://doi.org/10.1007/978-3-662-22593-6