Wissenschafts­philosophie

Wissenschaftliches Denken und Arbeiten

Die kritische, analytische und strukturierte Heran­gehens­weise an die Phänomene der Welt, des Lebens und der Gesellschaft

Im akademischen Bereich sind Kenntnisse der Wissen­schafts­theorie sowie die praktische Fähig­keit des wissen­schaftlichen Arbeitens einschließlich der Wissen­schafts­kommunikation eine Kern­kompetenz.

Deshalb hat gemäß Universitäts­gesetz 2002 § 51 und § 80-86 jeder Absolvent einer Universität oder Fach­hoch­schule eine wissen­schaftliche Arbeit zu verfassen, die dem Nachweis dient, wissen­schaftliche Themen selbst­ständig sowie inhaltlich und methodisch vertretbar bearbeiten zu können (Diplom- und Master­arbeit) bzw. eine wissen­schaft­liche Frage­stellungen selbst­ständig bewältigen zu können (Dissertation).

Die wissenschaftliche Kompetenz­ent­wicklung an den Universitäten hat darüber hinaus einen tieferen Sinn und Zweck. Sie zielt auch auf die Persönlich­keits­ent­wicklung und das zivilgesell­schaftliche Engagement der Studierenden ab. Die Fähigkeit des wissen­schaft­lichen Denkens und der wissen­schaftlich-philosophische Zugang zu den Themen des Lebens

Wissenschaftskompetenz umfasst praktisch alle wichtigen Schlüssel­kompetenzen für den akademischen und beruflichen Erfolg wie Lernkompetenz, Methoden­kompetenz, Schreib­kompetenz, Kommunikations­kompetenz, Selbst­kompetenz und Kreativität.

Subjektive Wahr­nehmung versus wissen­schaft­liches Denken und Arbeiten

Vor gar nicht allzu ferner Vergangen­heit meinten die Menschen, die Sonne drehe sich um die Erde. Nikolaus Kopernikus bezweifelte diese Annahme und stellte im Jahr 1510 die These des helio­zentrischen Modells auf, fand aller­dings keine wissen­schaft­lichen Beweise dafür, da es zu seiner Zeit die wissen­schaft­lichen Methoden und Instrumente dazu noch nicht gab.

Ende des 16. Jahrhunderts versuchten der Universal­gelehrte Galileo Galilei und der Mathematiker Johannes Kepler schlüssige Beobachtungen zu sammeln, um das helio­zentrische Modell zu beweisen.

In der Folge setzte sich das helio­zentrische Modell durch, weil es Kepler mathematisch schlüssig beschrieb und vor allem, weil es Anfang des 17. Jahr­hunderts von Galilei durch Beobachtungen mit einem von ihm weiter­ent­wickelten Teleskop bestätigt werden konnte.

Erst viel später brachten größere Teleskope die Erkenntnis, dass die Sonne auch nicht das Zentrum des Universums ist, bis zum jetzigen Standard­modell der Kosmologie, welches Milliarden von Galaxien in einem sich mit zunehmender Geschwindig­keit ausdehnenden Universum kennt.

Mit der Erforschung von Phänomenen aus einer Kombination von Experimenten, Messungen und mathematischen Analysen wurde Galileo Galilei zu einem der wichtigsten Begründer der neuzeitlichen exakten Natur­wissenschaften.

Das Problem bei der Aufstellung der wissen­schaft­lichen Hypothese des helio­zen­trischen Modells und der Ablehnung des geozentrischen Weltbilds war, dass es für die Menschen tatsächlich so ausschaute, als ob sich die Sonne jeden Tag um die Erde drehen würde.

Wenn dann auch noch eine Dogmatik dazukommt, welche die Erde als das Zentrum der Schöpfung und des Universums betrachtet—und diese Ideologie tief im Denken der Menschen verankert ist—kann man sich vorstellen, wie schwer es war, ein davon abweichendes Modell bzw. eine alternative Hypothese aufzustellen und diese subjektive Wahrnehmung zu korrigieren.

Die wissen­schaft­liche Heran­gehens­weise an die Phäno­mene der Welt

Mit dem modernen, professionellen wissen­schaft­lichen Denken und Arbeiten wird der wissen­schaft­liche Arbeits­prozess vom ersten fragenden Gedanken bis zur Publikation in folgender Art und Weise intellektu­alisiert und strukturiert:

  1. Auffinden und Formulieren eines Forschungs­problems, eines Forschungs­themas, einer Forschungs­frage
  2. Aufstellen wissen­schaftlicher Hypothesen (Theorie­bildung)
  3. Fest­legung von Unter­suchungs­merkmalen (Operationali­sierung)
  4. Sammeln von Informationen (Daten­erhebung und Daten­erfassung)
  5. Analyse der gesammelten Daten
  6. Ziehen von Schluss­folgerungen
  7. Diskussion bzw. kritische Betrachtung der eigenen Forschungs­ergebnissen

Publiziert werden all diese Inhalte in einer Forschungs­arbeit bzw. einem wissen­schaft­lichen Paper mit folgender Kapitel­struktur:

  1. Introduction
  2. Literature Research / Previous Research on the Subject (in wissen­schaft­lichen Papers meist in der Introduction und Discussion)
  3. Data and Methods
  4. Results
  5. Discussion

Ziel ist, neue Erkennt­nisse zu gewinnen bzw. Phänomene, Sach­ver­halte und Zusammen­hänge fundiert zu verstehen und die gewonnenen Erkenntnisse mit anderen Interessierten zu teilen und diskutieren.

Hypothesen­bildung

In der Wissenschaft wird nach neuen Erkenntnissen gesucht, indem Phänomene, Zusammen­hänge und Kausalitäten kritisch betrachtet, analysiert und in der Folge durch Beobachtungen überprüft werden. Die Vermutung bzw. Annahme wie verschiedene Faktoren miteinander in Beziehung stehen oder Phänomene funktionieren wird in Forschungs­fragen formuliert und durch wissenschaftliche Hypothesen konkretisiert.

Je nach Natur der Forschungs­frage können folgende Arten von Hypothesen gebildet werden:

Null- und Alternativ­hypothese

Bei zwei Ereignissen, die sich gegenseitig ausschließen, also entweder gilt das eine oder das andere, bietet sich das Aufstellen einer Null- und Alternativ­hypothese an. Z.B. ein Medikament reduziert entweder die Krankheits­dauer statistisch signifikant oder sie hat keine statistisch signifikante Auswirkung auf die Krankheitsdauer.

In Statistik­programmen erfolgt dazu die Berechnung einer Fehler­wahr­schein­lich­keit. Wird eine statistische Sicherheit von 95% gefordert, dann kann bei einer berechneten Fehler­wahr­schein­lich­keit kleiner als 5% die Alternativ­hypothese angenommen werden.

Probabilistische Aussage

Probabilistische Hypothesen sind Wahr­schein­lich­keits­aussagen über ein Ereignis, das mit einer bestimmten Wahrschein­lichkeit eintritt bzw. über einen Sach­verhalt, der mit einer bestimmten Wahrschein­lichkeit vorher­gesagt werden kann. Man spricht hier weniger von Hypothese sondern eher von Aussage.

Besonders bekannt sind probabilistische Aussagen bei Wahl­umfragen: Partei XPÖ erhält mit 95% statistischer Sicher­heit zwischen pu und po Prozent der Stimmen. Häufiger wird folgende Aussage gemacht: Würde jetzt gewählt werden, dann würde die Partei XPÖ p Prozent der Stimmen erhalten mit einer Schwankungs­breite von ppu Prozent­punkten. Die statistische Sicherheit bzw. das Konfidenzintervall wird dabei meist mit 95% festgelegt, d.h. mit einer Irrtums­wahr­schein­lich­keit von 5% liegt der wahre Wert außerhalb des Konfidenz­intervalls.

Probabilistische Aussagen können bei Gruppen­ver­gleichen auch als Hypothesen­test genutzt werden. Aus den dabei angegebenen Konfidenz­intervallen CI kann dann eine Aussage über einen eventuell vorliegenden statistisch signifikanten Unter­schied gemacht werden, also im Grunde die Null- und Alternativ­hypothese überprüft werden. Überschneiden sich die Konfidenz­intervalle, liegt kein statistisch signifikanter Unterschied vor und die Null­hypothese kann nicht verworfen werden.

Deterministisches Modell

Wenn ein Ereignis unter bestimmten Voraus­setzungen immer eintritt, spricht man von einem deterministischen Modell. Der Sachverhalt ist also durch Natur­gesetze vorgegeben.

Die spektakulärsten empirischen Beweise betreffen wohl die von Albert Einstein aufgestellten deterministischen Modelle der allgemeinen und speziellen Relativitäts­theorie. Mithilfe einer totalen Sonnen­finsternis konnte 1919 die durch die Allgemeine Relativitäts­theorie vorausgesagte gravitative Ablenkung des Lichts überprüft werden.

Technisch viel aufwendiger war die Überprüfung der Relativität von Raum und Zeit, die erst 1971 von Joseph C. Hafele und Richard E. Keating mit vier Cäsium-Atomuhren in einem Flugzeug und einer stationären Atomuhr bewiesen wurde.

Die Relativitäts­theorie ist auch ein Bespiel dafür, wie Ergebnisse theoretischer Grundlagen­forschung zur Alltags­anwendung werden. Z.B. wäre ohne Einsteins Gleichungen keine exakte Satelliten­navigation möglich.

In Bereichen wie der Physik kann die Überprüfung eines theoretischen Modells manchmal sehr lange dauern. Der britische Physiker Peter Higgs hat in den 1960er Jahren für das Standard­modell der Elementar­teilchen­physik ein Teilchen vorher­gesagt, das erst 2012 mit dem Teilchen­beschleuniger in CERN nachgewiesen werden konnte. Auch hier wurde erst das bestehende Modell kritisch betrachtet und analysiert und in der Folge mit einer Theorie erweitert, die in weiterer Folge durch Beobachtungen wissen­schaftlich überprüft werden konnte.

Hingegen wird es z.B. bei der sogenannten M-Theorie bzw. String-Theorie wahrs­chein­lich nie möglich sein, den wissen­schaftlichen Nachweis zu erbringen, weil diese Strings derart klein sind, dass die Energie für einen entsprechenden Teilchen­beschleuniger praktisch nicht aufgebracht werden kann. Hier wird man wohl in der Theorie verbleiben. Aber nichts­desto­trotz ist es spannend, sich mit diesen Theorien, die in sich stimmig und sehr elegant sind, zu befassen.

Literaturrecherche

Am Anfang steht der kritische oder fragende Gedanke, angeregt durch einen Beitrag in einem Forschungs­journal, durch eine irritierende Alltags­beobachtung, durch die Aussage eines Kollegen auf einem wissen­schaft­lichen Kongress, durch eine Frage­stellung bei der Behandlung eines Patienten, etc. Wenn ein tieferes Interesse daran besteht, kann diesem Gedanken nachge­gangen werden und die Thematik im Rahmen von Literatur­recherchen eingehender betrachtet werden.

Die umfassende und sorgfältige Literatur­recherche ist in den meisten Fällen wohl der wichtigste Teil einer wissen­schaftlichen Arbeit. Oft kann damit die Frage­stellung zumindest teilweise beantwortet werden. Allerdings bleiben fast immer offene Fragen, die im Rahmen von Forschungs­arbeiten weiter untersucht werden können.

Datenerhebung

Zur Beantwortung der offenen Forschungs­frage benötigen wir eine Datenerhebung bzw. ein Experiment, wobei wir darauf hoffen, dass uns die daraus gewonnen Beobachtungen, Daten und Analysen eine Antwort auf unsere Forschungs­frage geben.

Experimentelles Design

Das Auffinden relevanter offener Forschungs­fragen und das Aufstellen der dazugehörigen wissen­schaftlichen Hypothesen ist im Allgemeinen ein leichtes Spiel für erfahrene Wissenschaftler.

Hingegen kann das Experiment zur Beantwortung der Forschungs­fragen mit größeren Schwierig­keiten verbunden sein. Manche Experimente und Erhebungen sind nur mit extrem hohen finanziellen, zeitlichen und technischen Aufwand möglich, wie z.B. der Teilchen­beschleuniger in Cern. Auch eine einfache epidemiologische Erhebung über den Gesund­heits­zustand der Bevölkerung oder die Erforschung eines neuen Medikaments kann enorme Ressourcen beanspruchen. Insbesondere in der medizinischen Forschung kommen auch noch ethische Aspekte und gesund­heitliche Risiken dazu.

Außerdem kann die akkurate Messung mit Schwierig­keiten verbunden sein, sogar wenn es sich um ein dichotomes (ja/nein) Merkmal handelt. Beispiel: Wie kann beim psychologischen Experiment der kindlichen Entwicklung zuverlässig feststellt werden, ob sich das Kleinkind im Spiegel selbst erkennt? Die Idee, man könnte dem Kind unbemerkt einen auffälligen Punkt ins Gesicht malen und in der Folge beobachten, ob das Kind bei Betrachtung im Spiegel den Punkt sich selbst zuordnen kann (Rouge Test), braucht es gewisses Maß an Kreativität.

Manchmal ist vor der eigentlichen Studie eine Pilot­studie mit wenigen Probanden erforderlich, um die Zuverlässig­keit des Experiments, des Studiendesigns oder eines Tests vorab zu prüfen.

Eine Studie mit gültiger Forschungs­frage und gelungenem Experiment kann auch zum Scheitern verurteilt sein, wenn nicht darauf geachtet wird, gültige statistische Aussagen treffen zu können. Deshalb beschäftigen die meisten Forschungs­ein­richtungen Statistiker, die sich zualler­erst um das statistische experimentelle Design (auch statistische Versuchs­planung genannt) und um die Berechnung des erforderlichen Stichproben­umfangs kümmern.

Für ein gelungenes experimentelles Design ist Kreativität, Können und Erfahrung erforderlich. In den meisten Fällen braucht es dazu ein multi­disziplinäres Team oder eine erfahrene, professionelle Unterstützung.

Data-Mining

Insbesondere im Gesund­heits- und Sozial­bereich existieren große Datenmengen, die mithilfe statistischer Methoden analysiert werden könnten mit dem Ziel, Muster, Trends, Zusammen­hänge, Quer­ver­bindungen und Regel­mäßig­keiten zu erkennen. D.h. hier müssten die Daten nicht im Rahmen eines teuren Forschungs­projekts aufwendig erhoben werden. Allerdings stehen meist daten­schutz­rechtliche Gründe gegen die Verwendung solcher Daten. Auch die Reproduzier­bar­keit des Experiments wäre nur eingeschränkt gewährleistet.

Reproduzierbarkeit eines Experiments

Die Reproduzierbar­keit ist eine Grundan­forderung an wissen­schaft­liche Experimente, Messungen und Analysen. Dementsprechend werden im Methodenteil einer wissen­schaft­lichen Publikation experimenteller Aufbau und Versuchs­durch­führung beschrieben. In der Folge kann ein experimentelles Ergebnis von Forschern repliziert und überprüft werden. Als verlässlich gilt ein experimentelles Ergebnis erst dann, wenn es von anderen Forschern nachvoll­zogen worden ist.

Es gibt es jedoch auch Ausnahmen von der Reproduzier­bar­keit eines Experiments. Z.B. kann das einmalige Ereignis von geburten­starken Jahrgängen in den 1960er Jahren und den Umständen des sogenannten Wirtschafts­wunders nicht repliziert werden. Auch die COVID-Pandemie ist so ein zufälliges Experiment, welches nicht repliziert werden kann.

Solche Ereignisse können als gesellschaft­liche Experimente gesehen werden, welche nie geplant wurden, sondern passierten. Bei Forschungs­projekten zur Untersuchung der Effekte dieser einmaligen Ereignisse ist es besonders wichtig, dass die Datener­hebungen und Daten­analysen nachvoll­zieh­bar sind und im Daten-/Methoden­teil der wissen­schaft­lichen Arbeit genau beschrieben werden.

Publikation

Sensationelle Ergebnisse und neue Erkenntnisse von großer Tragweite lassen sich natürlich leicht in anerkannten wissen­schaft­lichen Fachzeit­schriften publizieren bzw. als wissen­schaftliche Arbeit einreichen. Aber manchmal erhalten wir trotz gültiger Forschungs­frage und akkuratem experimentellen Design keine befriedigende Antwort und viele zusätzliche offene Fragen. In den meisten Fällen ist dies ein wichtiger Erkenntnis­schritt in der wissen­schaftlichen Fach­disziplin, der es wert ist, jedenfalls publiziert zu werden.

Wissenschaftliches Denken und Arbeiten anhand von Beispielen aus der Medizin und Psychotherapie­forschung

Medizinische Forschung

In der medizinischen Wissenschaft ist die Beziehung zwischen Ursache und Wirkung (Kausalität) von besonderer Bedeutung. Ein sehr einfaches Beispiel der Erforschung eines derartigen Zusammen­hangs ist die Überprüfung der überlieferten bekannten Annahme über die Wirkung von Hühner­suppe bei grippalem Infekt. Die nicht-wissen­schaft­liche Betrachtungs­weise würde jetzt vorschlagen, diese Auffassung anzunehmen, wenn doch fast alle sagen, dass bei einer Erkältung eine Hühner­suppe wahre Wunder bewirkt.

Der kritische Beobachter lässt sich allerdings nicht beeinflussen oder irritieren von dem, was alle meinen und sagen, sondern zieht in Betracht, dass das subjektive Empfinden einer Wirkung auch auf psycho­somatische Effekte (z.B. von der Wirkung überzeugt sein) und anderen kausalen Effekten (z.B. Bettruhe- und Erholungs­effekte) zurück­zuführen sein könnte.

Andere kausale Effekte könnten einen Schein­zusammen­hang zwischen der erklärenden Variable (Hühnersuppe ja/nein) und der Zielvariablen (Krankheits­dauer) ergeben. Z.B. könnten insbesondere jene Menschen, die sich bei einer Erkältung mit Hühner­suppe verwöhnen, vermehrt dazu neigen, sich zudem viel Ruhe und Erholung zu gönnen. Deshalb sollten die beiden untersuchten Gruppen möglichst gleichartig sein oder es müssen Kontroll­variablen eingesetzt werden, um den Einfluss der anderen Variablen (confounding variables) heraus­zurechnen.

Eine erste Analyse der Zutaten findet jedoch Inhalts­stoffe, die unter Umständen das Immunsystem unterstützen, Entzündungen hemmen und die Schleimhäute abschwellen lassen. Diese erste Erkenntnis regt dazu an, die Wirkung der Suppe wissen­schaftlich auf einen Effekt bezüglich der Krank­heits­dauer durch Beobachtungen empirisch zu überprüfen.

Aus der Forschungs­frage über die Wirkung von Hühner­suppe auf die Krank­heits­dauer lassen sich folgende Hypothesen ableiten:

wobei μ₁ die Krank­heits­dauer mit der Hühner­suppe und μ₂ die Krankheitsdauer mit einer Plazebo­suppe mit Hühner­geschmack ist. Dabei wird der wahre Mittel­wert der Population (Erwartungs­wert) μ durch den berechneten Mittel­wert der Stichprobe x̄ einschließlich einer Standard­abweichung s in Abhängig­keit vom Umfang der Stichprobe n geschätzt.

Die Nullhypothese H₀  kann nur mit einer bestimmten Sicherheits­wahr­schein­lich­keit 1−α verworfen werden bzw. die Alternativ­hypothese H₁  nur mit einer bestimmen Irrtums­wahr­schein­lich­keit α angenommen werden. Meist wird eine statistische Sicher­heit von 95% gefordert.

Zu beachten ist außerdem, ob die Krankheits­dauer einer Normal­verteilung folgt, ansonsten kann der Schätzer x̄ nicht für statistische Tests herangezogen werden, sondern es wäre ein verteilungs­unab­hängiger Test (auch nicht­paratmetrische oder parameter­freie Verfahren genannt) erforderlich, z.B. der Median-Test.

Hier zeigt sich, wie wichtig in den meisten Forschungs­gebieten umfassende Kennnisse der Statistik sind. Eine gute Online-Einführung in die Wahr­schein­lich­keits­rechnung und Statistik finde Sie auf der Website www.crashkurs-statistik.de.

Psychotherapie­forschung

Bei einer psychotherapeutischen Behandlung geht man davon aus, dass innere Konflikte, Traumati­sierungen und falsch eingelernte Verhaltens- und Denkweisen die psychische Problematik verursachten. Durch die Bearbeitung dieser Ursachen und Hinter­gründe unter Berück­sichtigung der Beziehungs­dynamik zu wichtigen Bezugs­personen der Kindheit wird die psychische Problematik aufgelöst. Dabei spielt vor allem die psychothera­peutische Beziehung eine wesentliche Rolle für den Therapieerfolg.

Kritsch betrachtet fragt es sich allerdings, ob es bei bestimmten Störungen eventuell eine spezielle Psychotherapie mit Abstimmung auf das Krank­heits­bild bräuchte, z.B. bei Essstörungen. Bei genauerer Betrachtung von Essstörungen werden deren Komplexität und Besonderheiten offenbar. In der Folge können die spezifischen Erfordernisse einer möglichst erfolgreichen Therapie von Essstörungen bestimmt werden.

Nach dem Herausfinden essstörungs­spezifischer Behandlungs­strategien und dem Festlegen der Unter­suchungs­merkmale soll nun die Wirksamkeit von den daraus entwickelten psychothera­peutischen Ansätzen verglichen werden. Dabei werden die Patienten nach Zufalls­prinzip folgenden Behandlungs­gruppen zugeteilt:

Die Aufteilung der Patienten zu den Behandlungs­gruppen nach dem Zufalls­prinzip ist eine grundlegende Voraussetzung für inferenz­statistische Analysen. Die Inferenz­statistik, auch induktive oder schließende Statistik genannt, beruht auf den Grund­lagen der Wahr­schein­lich­keits­theorie, die wiederum auf Zufalls­stich­proben basiert. Eine Zuordnung der Patienten z.B. nach Sympathie und Interesse oder gar nach Ausprägung des Störungs­bildes würde eine maßgebliche Verzerrung (Bias) der Ergebnisse verursachen.

Zu beachten ist auch, dass es aus ethischen Gründen keine Kontroll­gruppe gibt, die gar keine psychothera­peutische Behandlung erhält. D.h. Wissen­schaft hat immer auch ethische Aspekte abzuwägen und muss eventuell auf Erkenntnisse verzichten, wenn deren Erforschung unseren ethischen, gesellschaft­lichen und humanistischen Werten widerspricht.

Aus den Forschungs­fragen ergeben sich nun folgende wissen­schaft­liche Hypothesen:

wobei π₁ der Anteil der erfolgreich behandelten Patienten in der Behandlungsgruppe 1, π₂ der Anteil der erfolgreich behandelten Patienten in Behandlungs­gruppe 2 und π₃ der Anteil der erfolgreich behandelten Patienten in Behandlungs­gruppe 3 ist.

Der wahre Anteil π der erfolgreich behandelten Patienten wird mit dem berechneten Anteil der Stichprobe p geschätzt, wobei der Behandlungs­erfolg aus fest­ge­legten Kriterien besteht, die bereits bei der Studien­planung festgelegt werden müssen.

Im Nachhinein erstellte oder geänderte Kriterien für den Behandlungs­erfolg können offiziell nicht berück­sichtigt werden bzw. müssen in der Studie genannt und diskutiert werden, denn sie würden den Verdacht auf Manipulation der Studie hervorrufen. Z.B. nur jene Erhebungs­merkmale für den Behandlungs­erfolg heranzu­ziehen, die ein gewünschtes Ergebnis liefern.

Die einzelnen erhobenen Merkmale sowie Zusammen­hänge von Merkmalen können jedoch auch im Nachhinein deskriptiv (beschreibend mit Maßzahlen und Graphiken) sowie induktiv analysiert werden. Häufig ergeben sich nach der Daten­erhebung zusätzliche Forschungs­fragen. Z.B. ob der Behandlungs­erfolg auch vom Alter der Patienten abhängt.

Forschung verstehen

Für den wissen­schaftlich interessierten Laien und für Studierende bis zum Bachelor-Studien­abschluss geht es weniger um die Fähigkeit, ein großes Forschungs­vorhaben realisieren zu können, sondern vor allem um