Ich glaube nicht an die Freiheit des Willens.
Schopenhauers Wort: "Der Mensch kann wohl tun, was er will, aber er kann nicht wollen, was er will", begleitet mich in allen Lebenslagen und versöhnt mich mit den Handlungen der Menschen, auch wenn sie mir recht schmerzlich sind.
Diese Erkenntnis von der Unfreiheit des Willens schützt mich davor, mich selbst und die Mitmenschen als handelnde und urteilende Individuen allzu ernst zu nehmen und den guten Humor zu verlieren.
(Albert Einstein)
npluschke - 5. Okt, 20:32
Es fällt das Laub wie Regentropfen
So zahllos auf die Stoppelflur;
Matt pulst der Bach wie letztes Klopfen
Im Todeskampfe der Natur
(Theodor Fontane)
npluschke - 3. Okt, 14:21
Allsätze sind Aussagen, die über einen bestimmten eng abgesteckten Sachverhalt hinausgehen. Sie sind von genereller Natur. Gleichzeitig geht man davon aus, dass sie immer wahr sind. Sie haben also etwas axiomatisches. Beispielhaft sei die Aussage
Mit steigendem Einkommen sinkt der Anteil dieser für konsumtive Zwecke.
genannt. Kann ich hingegen die Aussage
Es gibt mindestens einen Haushalt, bei dem nach einem Einkommensanstieg auch der Konsumanteil der Einnahmen gestiegen ist.
bestätigen, ist der Allsatz falsifiziert. Verifiziert können Allsätze wie dieser nicht, da sich nie die Gesamtmenge überprüfen lässt.
Ein Bündel von Allsätzen, nicht widerlegter Hypothesen, stellt eine Theorie dar. Die Hypothesen sind untereinander widerspruchsfrei. Die Theorie hilft bei der Erklärung bestimmter Sachverhalte oder Phänomene. Einzelne Allsätze, die einen Zustand exakt vorhersagen und in aller Regel einen kausalen Zusammenhang beschreiben bezeichnet man als Gesetz. Ein Naturgesetz ist demzufolge ein Allsatz aus dem Bereich der Naturwissenschaften. Die Zusammenfassung mehrerer Naturgesetze stellt somit auch wieder eine Theorie dar. Dies verwundert, weil Naturgesetze im allgemeinen Sprachempfinden im Gegensatz zu Naturgesetzen etwas Unantastbares haben. Sie sind aber ebenso durch das Auge des Betrachters und den Wissenschaftsstand geprägt und daher nicht gesichert.
Im Bereich der Mikroökonomie gibt es zwei sich widersprechende Ansätze wie im Falle von Wirtschaftskrisen zu verfahren ist. Nach Keynes sollte der Staat die öffentliche Nachfrage steigern, damit ein dauerhafter Einbruch vermieden und das bestehende Niveau gehalten werden kann. Der Ansatz von Hayek setzt darauf, dass sich der Staat komplett heraushält: Die Rezession ist die Folge eines überhöhten Wachstums, die zu einer notwendigen Bereinigung des Marktes führt und die ineffizientesten Marktteilnehmer eliminiert. Beide Ansätze sind nach heutigen Erkenntnissen unvollständig. Beim keynesanischen Ansatz wird nur der kurzfristige Verlauf betrachtet. Das generelle Problem würde langfristig nicht behoben, stattdessen müsste der Staat seine Ausgaben dauerhaft erhöht halten. Ansonsten bliebe es beim sogenannten Strohfeuer, d. h. nur einem kurzen Anstieg der Wirtschaftsleistung. Die Langfristigkeit ist bei Hayek berücksichtigt. Wie die Weltwirtschaftskrise, u. a. auch in Deutschland, im letzten Jahrhundert gezeigt hat, kann aber auch sein Ansatz nicht vollständig sein. Erst durch die Erweiterung der Theorie, dass nicht nur harte Faktoren wie Zinssätze und öffentliche Ausgaben Einfluss auf das Investitionsniveau haben, sondern auch weiche wie die Erwartungshaltung an die Zukunft und das Agieren der Marktteilnehmer, konnte erklärt werden, warum seine Theorie in der Praxis untauglich war. Das kurzfristige Eingreifen des Staates bei Keynes verändert hingegen schon implizit die Erwartungshaltung. Die Betrachtung des Ablaufs im längeren Zeitablauf erweitert seine Theorie. Die Kombination beider stellt daher nach heutigen Erkenntnissen die bestmögliche politische Handlungsalternative dar (vgl. Biggs/Mayer/Vared 2009).
Beide Theorien vereint, dass sie auch für sich stehend schon logisch konsistent waren und formal, verbal und grafisch präzisiert werden konnten. Die Theorieerweiterungen sorgten zudem für eine Integration der vorher bestehenden. Empirisch widerlegt wurden die einzelnen bereits, wobei hierbei schwer zu definieren ist, ab wann dies eintritt, weil man nie genau weiß, welche Folgen sich bei anderem Handeln ergeben hätten. Für die Theorie von Keynes kann man aber z. B. die bei der Auflegung von Programmen seiner Art beobachtete stark ansteigende Verschuldung öffentlicher Haushalte anführen. Bei der kombinierten können empirische Untersuchungen über die wirtschaftliche Entwicklung im Zeitablauf in den nächsten zehn, zwanzig Jahren über den Vergleich verschiedener Länder mit unterschiedlichen Ausprägungen der einzelnen Handlungsprogramme Klarheit verschaffen. Ein heuristischer Wert ist demnach gegeben, ebenso die praktisch-technologische Relevanz. Schließlich wurden die Theorien bereits umgesetzt. Da, so scheint es zumindest, das gefürchtete Armageddon des globalen Wirtschaftssystems ausgelöst durch die jüngste Finanzkrise auszubleiben scheint, hat sich für die Gesamtgesellschaft die Situation zumindest im Vergleich zu früheren vergleichbaren Krisen verbessert.
Biggs, Michael / Mayer, Thomas / Yared, Francis (2009): „Austro-Keynesianism”, Frankfurt (Deutsche Bank Global Markets Research).
npluschke - 3. Dez, 21:35
Ich habe für mich den Bereich der Wissenschaftstheorie entdeckt. Die jüngsten und zukünftigen Beiträge behandeln daher fast ausschließlich diesen abstrakten Bereich. Um die gewonnenen Erkenntnisse zu verarbeiten und noch einmal zu reflektieren, geben die Einträge diese angereichert mit einigen persönlichen Kommentaren wider.
Wenngleich der Titel des Blogs nicht mehr ganz passgenau ist, bleibt dieser bestehen. Der Untertitel stellt geradezu die Forderung, sich auch mit Themen jenseits der Ökonomie und stattdessen formalwissenschaftlicheren Themen zu beschäftigen.
npluschke - 29. Nov, 13:24
Im Wissenschaftsbetrieb ist die praktische methodische Vorgehensweise universell. Grob betrachtet werden immer die drei Schritte „Aufstellen einer Hypothese“, „Entwickeln einer Theorie“ und „Aufbau eines Modells“ durchgeführt. Die Theorieentwicklung stellt den Schwerpunkt dar.
Hypothesen bilden die Basis in der wissenschaftlichen Forschung. Diese können verschiedene Arten annehmen, sind aber immer nur ein vermuteter Zusammenhang, den es zu überprüfen gilt. Durch den Prozess der Bestätigung, Erweiterung und Korrektur bildet sich aus dem Zusammenfügen mehrerer Hypothesen eine Theorie. Anhand dieser können dann z. B. zukünftige Ereignisse prognostiziert werden. Generell kann sowohl zuerst die Hypothesenbildung erfolgen (Induktion) als auch der Theorieentwurf (Deduktion). Etwas anders geartet als diese beiden rationalen Vorgehensweisen ist die Abduktion. Mit den hergebrachten Theorien nicht erklärbare Erscheinungen erfordern neue Ansätze. Diese entstehen quasi über Nacht und sind Grundlage der Quantensprünge in der Fortentwicklung einzelner Wissenschaftsbereiche. Archimedes´ Erkenntnis („Heureka!“) über die Dichteeigenschaften von Körpern mag als solche angesehen werden. Sowohl für die Deduktion als auch die Abduktion sind im Anschluss an die Theoriebildung geeignete Hypothesen aufzustellen und zu prüfen. Prinzipiell kann hierbei das Problem auftreten, dass das Untersuchungsdesign zu sehr theoriebestätigend aufgebaut wird und somit mögliche Falsifikationen von vornherein ausgeschlossen werden.
Theorien zeichnen sich dadurch aus, dass sie klar und präzise sind und in sich schlüssig. Sie liefern außerdem einen zusätzlichen Erkenntnisgewinn. Als besonders wertvoll ist eine Theorie einzustufen, wenn sich aus ihr keine widersprüchlichen Aussagen ableiten lassen, sie empirisch (einfach) überprüfbar ist und sie viele dieser Überprüfungsversuche bereits erfolgreich bestanden hat. Im Sinne des kritischen Rationalismus kann eine Theorie nie bewiesen sein. Sie gilt immer nur als beste aller möglichen.
Gesetze bezeichnen in der Wissenschaft Aussagen von denen man annimmt, dass sie immer bzw. mit einer definierten statistischen Wahrscheinlichkeit eintreten. Zu ihnen gelangt man über die Operationalisierung von Sachverhalten, so dass aus Konstrukten messbare Variablen entstehen. Gesetze enthalten immer eine abhängige zu erklärende Variable und ein bis mehrere unabhängige. Mithilfe z. B. einer Regressionsgleichung lässt sich ein Gesetz, oder besser die dahinter stehende Theorie, formalisieren. Hierdurch ist dann eine Prognose möglich und die Stellschrauben anhand derer sich ein gewünschter Zustand einstellen lassen kann sind ersichtlich. Die formaltheoretische Darstellung stellt gleichermaßen ein Modell dar, das aus Vereinfachungsgründen nur Teilaspekte der Realität, des Originals, betrachtet. Eine beschränkte Sichtweise, die allerdings generellerer Natur ist, nimmt auch das Paradigma ein. Hierin vereint sind sämtliche gängigen Annahmen, die nicht ständig hinterfragt werden, wie z. B. die Sichtweise über den Menschen, den Untersuchungsgegenstand und bestimmte Vorgehensweisen. Neue Probleme und Erkenntnisse gerade in Bezug auf die Abduktion läuten häufig einen Paradigmenwechsel ein.
Die Retrognose ist ein Gedankenexperiment, das versucht vorhandene Dinge zu erklären. Im Gegensatz zur Prognose liegt ihr Fokus nicht auf der Abbildung zukünftiger Ereignisse, sondern des besseren Verstehens bereits erfolgter. Gerade die Prognosebildung und somit die hierfür notwendigen Vorarbeiten wie Hypothesen- und Theoriebildung spielen z. B. bei einer Marktabschätzung eine bedeutende Rolle. Deduktive und induktive Verfahren finden sich daher auch in der Praxis wieder. Notwendig für den Erfolg ist jedoch, dass man diese auch richtig anwenden kann. Dummerweise bestehen aber auch in Unternehmen Paradigmen, um im Beispiel zu bleiben, über die Absatzmärkte und die Käuferstruktur. Diese aufzubrechen und neue Ideen und Ansätze einzubringen, mit denen man sich von der Konkurrenz unterscheidet und somit Wettbewerbsvorteile erzielen kann, erweisen sich aber in der Praxis als schwierig. Hier bleibt nur (frei nach einem amerikanischen Pilgergebet) jedem mit auf den Weg gegeben:
Ich wünsche dir
den Mut Dinge zu ändern, die du ändern kannst,
die Gelassenheit Dinge zu akzeptieren, die du nicht ändern kannst
Und die Weisheit zwischen beiden zu unterscheiden
Es stellt sich die Frage, wie die Balance zwischen der Weiterentwicklung hin zu neuen Pfaden und einer effizienten Arbeitsweise durch das Beibehalten der bestehenden gelöst werden kann. Ständig alles in Frage zu stellen würde nicht weiterhelfen, weil man fast ausnahmslos auf der Stelle träte. Die gängigen Verfahren für immer beizubehalten verschlösse neue Erkenntnisse. Der Ansatz eine Theorie solange beizubehalten, auch wenn sie nicht immer zutrifft, bis eine bessere gefunden ist, erscheint als gangbarer Weg.
Ein interessanter Ansatzpunkt, gerade unter dem Aspekt sich immer schneller ändernder Umweltbedingungen, ergibt sich sowohl im Wissenschafts- als auch im Wirtschaftsbereich aus der Frage, wie neuen Ansätzen offener begegnet werden kann. Hieraus ergibt sich eine interdisziplinäre Aufgabe für die Wissenschaftstheorie und die Psychologie in Zusammenhang mit den Kommunikationswissenschaften.
npluschke - 29. Nov, 12:59
Chalmers (vgl. 1999, S. 11–22) widerspricht dem positivistischen Ansatz, dass es eine ahistorische, d. h. allzeitgültige, Methodologie in der Wissenschaft gibt. Stattdessen weist er, beispielhaft an der Newtonschen Physik dargestellt, darauf hin, dass sich diese durch neue Entdeckungen und Theorien weiterentwickeln kann. Die Wissenschaftsgeschichte zeigt, dass es in der Wissenschaft vorherrschende Ansätze gab und gibt. Diese sind etwa vergleichbar mit Modeerscheinungen, die auch wieder an Kraft verlieren und durch andere verdrängt werden. Bestimmend für einen Wandel ist weniger eine wissenschaftstheoretische Weiterentwicklung als vielmehr der Einfluss äußerer Erscheinungen. Nicht die Wissenschaftstheorie, die primär die Aufgabe hat, die Wissenschaft selbst zu reflektieren, sorgt für die bedeutenden Veränderungen, sondern diese geschehen eher zufällig durch neue Erkenntnisse in einzelnen Disziplinen. Jene sind so tiefgreifend, dass sie die vorherigen Grundsätze außer Kraft setzen. Dennoch leistet die Wissenschaftstheorie ihren Beitrag, indem sie die Methoden beschreibt, in Frage stellt und ggf. graduell verbessert. Sie sorgt somit dafür, dass im allgemeinen Wissenschaftsbetrieb jenseits revolutionärer Veränderungen eine Einigkeit darüber besteht, was Wissenschaft ist: die Suche nach Erkenntnis und Verbesserung auf Basis nicht widerlegbarer Tatsachen unter Inkaufnahme von der Nichterklärbarkeit einiger Phänomene, solange es keine Theorie gibt, die den Gesamtzusammenhang besser darstellt.
Chalmers (1999, S. 18) behauptet: "Wird Poppers Abgrenzungskriterium hinreichend präzise formuliert, um normative Kraft zu erlangen, ergeben sich unerwünschte Konsequenzen für die Wissenschaft." Nach Popper ist eine Theorie dann nicht mehr aufrechtzuerhalten, nicht nur wenn sie falsifiziert wurde, also ein Aspekt des Untersuchungsgegenstandes diesem widerspricht, sondern auch dann, wenn versucht wurde durch Hilfshypothesen etwas zu erklären. Eine Theorie, die vielleicht 99% der Beobachtungen abdeckt, wäre dann nicht mehr wissenschaftlich fundiert. Problematisch wird dieser Ansatz, weil damit sich nahezu alles falsifizieren ließe und man überhaupt keine theoretische Basis mehr hätte. Zwischenschritte, auf denen man aufbauen könnte, existierten nicht. Dies gilt insbesondere auch im naturwissenschaftlichen Bereich. Man denke hier nur an die Erklärung, was Licht eigentlich sei. Je nach Untersuchungsart geht man von Lichtwellen oder Photonen aus.
"Schwören Sie, die Wahrheit zu sagen, die ganze Wahrheit und nichts als die Wahrheit!" Kann man die halbe Wahrheit sagen? Schon Aristoteles stellte schließlich fest: "Von etwas, das ist, zu sagen, dass es nicht ist, oder von etwas, das nicht ist, (zu sagen,) dass es ist, ist falsch; während von etwas, das ist, zu sagen, dass es ist, oder von etwas, das nicht ist, (zu sagen,) dass es nicht ist, wahr ist." Bei einer Einzelbetrachtung von Sachverhalten trifft sicherlich die aristotelessche Aussage zu. Hier kann nur etwas wahr oder eben falsch sein. Bei komplexen Sachverhalten sieht es hingegen anders aus. Einzelne Aussagen sind in sich noch wahr oder nicht. Dadurch dass etwas verschwiegen oder aus dem Zusammenhang gerissen wird, ergibt sich aber ein anderes Bild beim Rezipienten als das, welches der Sender als Wahrheit erlebt hat. Unterschiedliche Prägungen zweier Personen können zudem zu verzerrten Bildern führen. Was für den einen dann der Wahrheit entspricht, geht für den anderen durch eine differente Interpretation des Gesagten überhaupt nicht mehr mit der ursprünglichen Sache konform. Bei empirischen Untersuchungen stellt sich die Frage, ab wann etwas als wahr aufgefasst werden kann oder ob das überhaupt möglich ist: einer Irrtumswahrscheinlichkeit von 5%, 1% oder 0,1%? Gelobt sei hier die Informatik. Eine boolesche Abfrage liefert immer den Wert wahr oder falsch und ist beliebig oft reproduzierbar. Interpretationsspielräume sind hier nicht vorhanden.
In der Wissenschaft gibt es unterschiedliche Typen schriftlicher Werke, z. B. die Literaturarbeit und die empirische Arbeit. Während bei der letzteren die Ermittlung, Verarbeitung und Auswertung von Daten steht, behandelt die Literaturarbeit die Zusammenfassung, Neuinterpretation oder kritische Prüfung bereits vorliegender Ergebnisse. Die empirische Arbeit verarbeitet Primärdaten, die literarische Sekundärdaten, die eventuell nur noch in aggregierter Form vorliegen. Prinzipiell sind auch Mischformen möglich. So weisen empirische Arbeiten eigentlich immer auf bereits ähnliche Untersuchungen hin und vergleichen die gewonnenen Erkenntnisse miteinander. Für völlig neue Ansätze sind Literaturarbeiten nicht geeignet, wohl aber für die Revitalisierung bestehender Forschungsergebnisse, ggf. um sie aus einem anderen Blickwinkel zu betrachten.
Chalmers, Alan F. (1999): „Grenzen der Wissenschaft”, Berlin, Heidelberg (Springer).
npluschke - 24. Nov, 17:49