Die Forschungspolitik in Deutschland sieht das allerdings anders, wie einem interessanten Artikel aus der taz mit dem schönen Titel "Die Vermessung der Wissenschaft" zu entnehmen ist. Sie bevorzugt Wissenschaft, die mess- und quantifizierbar ist. Ein Institut mit vielen Drittmittelprojekten und mit vielen Veröffentlichungen in peer-reviewed Journalen mit hohem ImpactFaktor gilt als exzellent und als genereller Vergleichsmaßstab für alle Disziplinen. Das ist natürlich Pech für Geisteswissenschaftler, die nicht schon während oder gar vor Projektbeginn ihre Resultate veröffentlichen, sondern erst nach womöglich langen Forschungen, und dies dann auch noch in Sammelbänden oder dicken Monographien, die natürlich mit keinen Impact Faktor gemessen werden.
.
Naturwissenschaftler werden allerdings zunehmend wegen
Themen wie Klima von der Forschungsförderung dazu verdonnert, Sozial- und / oder Geisteswissenschaftler in ihren
Projekten aufzunehmen – was diese auch mangels anderer Karriere- und
Forschungschancen oft gerne annehmen. Der Preis dafür ist allerdings, dass z.B.
wegen Zeitmangels und drohenden Deadlines statt einer qualitativen Feldforschung Telefoninterviews oder
Fragebogenaktionen gemacht werden, die zudem den Vorteil haben, dass sie
statistisch repräsentativ – also „richtige“ Wissenschaft – sind und nicht aus
komplizierten und sich widersprechenden Aussagen von Bürgermeistern, Angestellten, Unternehmern, Fischern oder Bauern
bestehen. Der Lohn besteht darin, dass die VertreterInnen der weichen
Wissenschaften ihre Namen mit auf die Papers für die Journale mit hohem Impact
Faktor setzen dürfen. Allerdings ziehen sie beim wöchentlichen Schwanzvergleich,
wie das ein geplagter Kollege mal nannte, auf Researchgate oder google scholar
immer den Kürzeren, weil die Schlagzahl, in der Naturwissenschaftler
veröffentlichen, absolut konträr ist zu den zeitaufwendigen, argumentativen und
interpretierenden Artikeln oder Essays der Geisteswissenschaftler.
Dadurch, dass die Wissenschaftspolitik diese Zeichen setzt,
werden die hierarchischen Verhältnisse in der Forschungsförderung ebenso
festgeschrieben wie die quantitativen Methoden der Naturwissenschaften als
genereller Maßstab. Verdutzt stellen dann gestandene Ethnologinnen,
Soziologinnen oder Geographinnen fest, dass ihnen Naturwissenschaftler erklären,
wie ihre Forschungsziele und Methoden zu sein haben, was als Wissenschaft gilt
und was nicht, und was anschlussfähig an die Modell orientierte Ausrichtung der
Projekte ist. In vielen Fällen führt dieser Druck dazu, dass die in diesem Rahmen
entstehenden Forschungen weit hinter den üblichen Standard in den geisteswissenschaftlichen
Herkunftsdisziplinen fallen. Beispiel hierfür ist die unhinterfragte Rückkehr von
Vorannahmen über Kultur, Wissensformen und traditionelle Praktiken, die in der
Ethnologie oder verwandten Disziplinen längst ad acta gelegt worden sind und nun in der Klimaforschung Wiederauferstehung feiern nach dem Motto "zurück in die Zukunft". Konsequenz
für viele junge in diesem interdisziplinären Feld arbeitenden Geistes- und
Sozialwissenschaftlerinnen sind dann oft verbaute Karrierewege, da sie einerseits
dem angelegten Messstab der Naturwissenschaften nicht genügen können, und
andererseits Gefahr laufen, ihr Standing in den Herkunftsdisziplinen zu verlieren. Auch
wenn heute viel von Interdisziplinarität die Rede ist, dann ist damit meist die
Erweiterung der naturwissenschaftlichen Methoden und Ansätze in das Gebiet der
Sozialwissenschaften gemeint. Ganz abgesehen davon, dass Stellen in diesen
Zwischenwelten rar gesät sind. Oder hat schon mal jemand z.B. von einer
literaturwissenschaftlichen Klimaprofessur gehört?
Die Wissenschaftspolitik produziert so auf der einen Seite
eine nicht Inhalts-, sondern eine Impact-Faktor orientierte Wissenschaft, und
auf der anderen ein sich stetig vergrößerndes Prekariat von hoch ausgebildeten
Wissenschaftlerinnen auf Stellen mit Zeitverträgen, während zugleich
qualitative Methoden und Ansätze zur Karikatur verkommen. Unter den Tisch fällt
dabei die Lehre, die einem für den Hirsch-Faktor nichts bringt und oft genug
von Lehrbeauftragten oder habilitierten Privatdozenten gehalten wird, für lau
oder ein Honorar von 800-1000 Euro pro Semester.
Resultat einer solchen Politik sind dann zum Beispiel Projekte
zur Anpassung an den Klimawandel, die vor allem dazu dienen, den Wissenschaftsbetrieb
am Laufen zu halten und immer neue Projekte
nach sich zu ziehen. Abseits davon werden allerdings von denen, die von dieser
schönen neue Projektwelt noch nicht vollständig absorbiert worden sind, immer noch Monographien
oder Artikel in obskuren Sammelbänden über die oft langen und Ergebnis offenen
Feld- und Archivforschungen veröffentlicht. Vielleicht finden sich ja dort
nicht nur Statistiken, sondern auch Geschichten darüber, wie die Leute leben,
wenn sie gerade nicht statistisch erfassbare Klimasubjekte sind – und somit
auch Wissen mit praktischem Anwendungswert in komplexen Situationen, wo
Statistiken allein auch nicht weiter helfen. Zumindest, wenn man den Worten
des Nationalparkdirektors vertrauen darf.
@Werner Krauss
ReplyDeleteIch kann die Erfahrung des Nationalparkdirektors teilen und ihre Ansicht bestätigen. Ich habe vor einigen Jahren in einem Großkonzern eine Ausbildung gemacht in modernen Produktionsmethoden. Mit Führungskräften aus drei Kontinenten.
Das Motto dass sich unsere Gruppe zum Schluss gewählt hat war:
"Die Lösung ist vor Ort und nicht am Computer."
Ich erinnere mich noch an eine Produktion in Asien in der der General Manager in seinem Büro exzellente "Key Performance Indikatoren" gezeigt hat. Wir haben ihm dann mit einfachen Strichlisten die wir vor Ort in der Linie selbst machten gezeigt, dass seine schönen Statistiken die Wirklichkeit vor Ort nicht abbilden.
Diese Erfahrung habe ich danach immer wieder erfolgreich angewandt. Wenn man eine Lösung für komplexe Probleme erarbeiten und entwickeln will muss man vor Ort Feldforschung betreiben. Statistiken können immer nur erste Anzeichen für ein Problem sein, müssen es aber nicht.
Ähnliches beobachtet man, wenn man zum Beispiel die gleiche Mitarbeiterbefragung in Asien und Europa macht. Dann stellt man fest, dass in Asien kaum kritische Aussagen kommen und die Zufriedenheit bei größer 90% liegt während in Europa die Mitarbeiter kritisch sind und eher niedrigere Zufriedenheitswerte aufweisen. Das ist jetzt keine Statistik, aber die Erfahrung aus zwei Konzernen.
Auch das zeigt meines Erachtens an, dass die Aussagen der Bürgermeister und Bürger vor Ort wichtiger sind als die statistisch ausgewerteten Befragungen.
wenn man geistes/sozialwissenschaftliche Projekte als Anhängsel sieht, dann ist das ein Problem. Man muss sich, glaub ich, verdeutlichen, dass die Geistes/Sozialwissenschaft auch Grundlagenforschung ist. Es werden eben auf anderen Teilen des Klima"problems" grundlegende Erkenntnisse gebraucht, die sogar vielleicht nicht sofort anwendbar sind.
ReplyDeleteZu den statischen Maßen (h-index, Anzahl Publikationen, Menge der Drittmittel): meiner Meinung nach sind die Maße eingeschränkt innerhalb eines Fachgebiets (gilt für etliche Fachgebiete) anwendbar. Um Fachgebiete übergreifend zu vergleichen, muss man ein wenig genauer hingucken. In einer naturwissenschaftlichen Studie steckt viel Detailarbeit, die man vielleicht nicht im Text sieht. Da gibt es eben keine riesigen Sätze, zusammengestückelt aus 1000 Quellen, wo man sehr genau gucken muss, dass alles noch passt. Aber die Sorgfältigkeit ist dieselbe. Allerdings kann man Erkenntnisse schon besser über einige Publikationen verteilen. Gut für den h-Index ;) Ich sehe da nicht, dass irgendein Fachgebiet sich besser finden muss als ein anderes. Es gibt überall gute und schlechte Arbeiten.
Beste Grüße,
Hab mein Kürzel vergessen, glaub WAIIMHN
noch mal etwas grundsätzliches zu meiner Kritik an Statistiken, auch als Antwort auf hvw #66 im vorigen post:
ReplyDeleteich habe nicht im geringsten etwas gegen Statistik, das wäre ja weltfremd und dumm. Ich habe nur etwas gegen eine bestimmte und leider gängige Verwendung von Statistik, und zwar wenn Statistik dazu benützt wird, andere Wissensformen zu entwerten und der Irrationalität zu bezichtigen. Hierzu ein Beispiel aus einem anderen, ebenfalls heißen Themengebiet, der Flüchtlingsproblematik:
Vor Ostern ging ein Bild durch die Medien, das zeigt, wie der Papst Flüchtlingen, darunter auch muslimischen, die Füße wäscht. Ein ausdrucksstarkes Bild mit einer eindeutigen Symbolsprache, die in wahrscheinlich vielen Gegenden der Welt verstanden wird.
Diese Geste des Papstes ist politisch nicht weniger wichtig als dringend benötigte Statistiken darüber, wieviele Menschen von wo nach wo fliehen. Ohne eine solche Statistik kann die Verwaltung nicht arbeiten, Unterkunft und Hilfe auf Dauer nicht organisiert werden.
Ist Statistik nun wichtiger als die religiöse Geste? Macht es Sinn, das eine gegen das andere auszuspielen? Oder die Flüchtlingsfrage auf eine rein statistische zu reduzieren? Oder sind nicht beide Aspekte so eng miteinander verbunden, dass eine klare Trennung gar nicht möglich ist? Kann man mit Statistik allein Flüchtlingspolitik machen, mit allen Nebenwirkungen, die dieses Problem hat?
Der Wert von Statistik steht hier überhaupt nicht zur Debatte, sondern lediglich der Stellenwert, der ihr zugemessen wird. Wird das Flüchtlingsproblem allein auf Statistik reduziert, dann haben wir ein Problem - so mein Argument. Das gilt in der Flüchtlingsfrage genauso wie im Hinblick auf Klimawandel oder, wie hier in diesem Post, der Wissenschaftspolitik.
Es stimmt daher nicht, so mein Argument, dass Statistik eine überlegene Wissensform ist, zum Beispiel gegenüber der Religion oder dem Recht, auch wenn dies manche Naturwissenschaftler immer wieder behaupten. Dass Statistik geprüftes Wissen ist und durch Kontrollmechanismen geht macht es der Religion nicht überlegen, sondern macht es nur zu guter Statistik. Diese brauchen wir in allen möglichen Lebensbereichen, aber nicht in allen Lebenssituationen (siehe Günter Heß, der unternehmerische Entscheidungen offensichtlich lieber aus dem Bauchgefühl trifft - um in anderen Situationen sicheerlich wieder die Statistik zu Rate zu ziehen, z.B., wenn es um einen reibungslosen Produktionsablauf geht).
Es gibt derzeit in allen angesprochenen Bereichen (Flüchtlinge, Klima, Wissenschaft) die Tendenz, Statistik als privilegierte Grundlage für politische Entscheidungen heranzuziehen. Dagegen richteten sich meine beiden letzten Posts. Eine Konsequenz ist die Reduktion des Klimaproblems auf Co2 und damit auf Sympton und nicht Ursache; die Reduktion der Flüchtlingsfrage auf Obergrenzen (und damit u.U. oft gegen Menschlichkeit und auch Asylrecht); oder der Wissenschaftspolitik auf "Impact statt Inhalt". Dagegen, finde ich, sollten sich auch Statistiker wehren, anstatt immer sogleich ihre Kunst zu verteidigen. Die Gefahr für die Statistik kommt nicht von den science studies, sondern von denen, die sie falsch verwenden und (meist aus politischen Motiven) zur überlegenen Wissensform verklären.
When I read that would be a "Wissensform" I understood why I was uncomfortable with the discussion here. My problem is that it has never been defined what this term should stand for. The examples are ones of using percentage-assertions in the media. What about my claim that in 70% of times, my line waiting for something, paying, showing passport or so is the slowest? Is this "statistics", does it carry a political agenda?
ReplyDeleteIf we define statistics as speaking in percentages about what a more-or-less well defined social group thinks about a more-or-less well defined issue (allowing a limited number of positions), then statistics is a way of speaking about society, power, interests, you-know-what. Then, as all claims-making this is political - we would agree on that.
However, in natural sciences, and I am believe also in all other sciences, statistics is a method, not a knowledge claim. A method of guessing how certain parameters of distributions may be; a confidence interval is not a statement about the number, to which the confidence interval is attached, but about the method which was applied in estimating the number. The motivation for being interested in certain distributions and not in others may be political, but that is also trivial as this would be the case also when other method are chosen. Also, we make certain assumptions, such as that the mathematical construct of probability would be adequate; same applies with other scientific approaches. The main point is that we talk about methods, with clear explanation of the assumptions, and the ability for falsification. This applies to science, not to articles in SPIEGEL and ZEIT.
The discussion consisted essentially of claiming to know what statistics is, in the media reality, in the political dicourse and in scientific practice. In the media and the general discourse it may be statements, which take the percentage form, in science it is a method.
@Hans von Storch,
ReplyDeleteIch möchte das auch nochmal klarstellen. In der Diskussion zwischen Werner Krauss und mir, angeregt durch einen FAS Artikel, ging es weder um falsche noch richtige Statistiken und auch nicht um falsch oder richtig ausgeführte Statistiken noch darum, ob man eine Ahnung von Statistik hat oder nicht. Unsere Argumente sind unabhängig davon.
Stattdessen untersuchten wir mit Argumenten die Grenzen der Verwendung von statistischen Ergebnissen in der öffentlichen Diskussion bzw. im politischen Prozeß.
Das Ergebnis der Diskussion eröffnet eine Möglichkeit ein politisches Argument das statistische Ergebnisse benutzt durch Textanalyse zu bewerten, auch wenn man keine Kenntnisse in Statistik besitzt. Das mag ihnen trivial erscheinen, für mich war es eine wertvolle Einsicht wie ich sie von Geisteswissenschaftlern erwarte. Meines Erachtens ist diese Argumentationskette ein wertvolles Werkzeug für Bürger in unserer Medien- und Datenwelt. Dafür bin ich Herrn Krauss dankbar.
Schön, worum geht es denn überhaupt nun?
ReplyDeleteMich auch auf HvS' #4 beziehend, würde ich gerne nochmals anregen, "%-Aussagen in den Medien", die in der Regel nicht hinreichend (um damit polit. Entscheidungen zu stützen) begründet, oft genug einfach falsch, oder auch gelogen sind, und nicht selten nur zur Unterstützung politischer Ansichten oder Werte hingeschrieben werden, von anderen, auf interessantere Weise problematischen Ausprägungen von Statistik, oder vielleicht besser "Quantifizierung", abzutrennen.
Erstere sind doch auch oft der Anlass für die Stammtischbrüder, mit "nur selbst gefälschte Statistiken sind nützlich" und "lies damned lies & statistics" alles quantitative Wissen, das einem nicht in den Kram passt, zu ignorieren. Eben auch z.B. mit Sorgfalt und Fachkompetenz nach Objektivität und Wertfreiheit strebenden Methoden erhobenen Statistiken, die sehr wohl eine herausragend wichtige Rolle (im Vergleich mit Religion und Bauchgefühl) für politische Entscheidungen spielen und imho auch spielen sollen. Mal die Etymologie von "Statistik" angeguckt? Und die letzte Diskussion las sich eben stellenweise wie ein Mitschnitt von diesem Stammtisch. Dass die Statistik unverzichtbar ist, heisst selbstverständlich nicht, dass sie eine Chance hätte, einigermassen wichtige Probleme alleine beschreiben zu können. Das behauptet auch keiner. Ist doch selbstverständlich. Siehe unten.
Herr Krauss, "Ist Statistik nun wichtiger als die religiöse Geste? ... , die dieses Problem hat? ". Das sind alles rhetorische Fragen, oder kennen Sie jemanden, der die anders beantworten würde als wir?
"... dass Statistik eine überlegene Wissensform ist, zum Beispiel gegenüber der Religion oder dem Recht, auch wenn dies manche Naturwissenschaftler immer wieder behaupten."
Das halte ich für ein Strohmannargument. Wer behauptet das? Sicher kein Statistiker, der "die Daten geben das leider nicht her" in Dauerschleife sagen muss. Naturwissenschaftler? Ja, sicher ist Statistik für ganz spezifische, enge, wohldefinierte Fragestellungen in ihrem Fachbereich die Methode der Wahl - aber darüber hinausgehend ist es sicher schwer Ihre Behauptung zu belegen, oder nicht?
Das Thema, was mich interessiert, und was imho sowohl am Grunde des letzten Posts und noch mehr des aktuellen liegt, ist die Frage nach dem sinnvollen Gebrauch von Quantifizierung, oder besser eindimensionalen Indizes. Und das Phänomen, dass scheinbar mehr oder wenig willkürlich gewählte (oder intransparent sorgfältig konstruierte)? Indizes zum Fetisch werden. Siehe CO2-Equivalente, Bruttoinlandsprodukt, oder Bibliometrie.
@hvw
ReplyDeleteWorum es Herrn Krauss in dem Artikel geht ist meines Erachtens klar beschrieben.
Es gibt einen Methodenkoffer zu dem auch die Statistik gehört. Aufgrund seiner Beobachtung bzw. seines Gespräch mit dem Nationalparkdirektor wird zu häufig in den Methodenkoffer gegriffen und die Methode Statistik herausgeholt und andere Methoden eher vernachlässigt. Die Ursache sieht er in dem System der Forschungsförderung und der Bewertung von Forschung.
Der sinnvolle Gebrauch von Quantifizierung steht hier gar nicht zur Debatte und auch nicht im letzten Post. Warum sie zu diesem Wurm immer wieder zurückkehren verstehe ich nicht.
Herr Krauss geht meines Erachtens davon aus, dass die Quantifizierung sinnvoll ist in den Projekten, dass sich die Projekte aber auf statistische Quantifizierung bzw. die Quantifizierung beschränken. Aus geisteswissenschaftlicher Sicht würde er gerne auch Teilprojekte mit anderen Methoden in diesen Projekten angewandt und gefördert sehen.
Ich finde zwar ihre Frage zur Quantifizierung auch interessant, aber sie gehört meines Erachtens nicht zu diesem Thema.
@hvw
ReplyDeletesie schreiben:
"und nicht selten nur zur Unterstützung politischer Ansichten oder Werte hingeschrieben werden"
Aber genau das ist doch das Wesen einer politischen Diskussion und auch legitim die Aussagen herauszupicken die die politische Meinung unterstützen. Deshalb brauchen wir ja Pluralität.
Aber auch das hat nichts mit dem Thema des Artikels zu tun.
Mein Beitrag #4 bezog sich auf den vorangehenden Thread, der inzwischen geschlossen wurde.
ReplyDeleteHier geht es in der Tat mehr um die Frage, wie nützlich verschiedene Wissenschaften für gesellschaftlliche Orientierungs- und Entscheidungsprozesse sein können. Ich denke, dass dabei die Frage der Evidenzbasierung, der alternativen Interpretationen und der Falsifikationsmögliichkeit für die wissenschaftliche Beratung, im Gegensatz zu weltanschaulichen Wissensansprüchen, wesentlich ist. Wenn allgemeine "Wahrheiten" geboten werden, mag das politisch für die jeweiligen "Seite" sehr nützlich sein; es mag auch eine gute Hypothesengeneration sein, sofern die Pluralität und Vorläufigketi der Hypotehsen beachtet wird.
Das Wundersame ist ja gerade, dass wir von Geisteswissenschaftlern (zurecht) hören, es gabe keine "Wahrheiten", man aber von einigen dieser Denkschule immer wieder mit einem Wahrheitsanspruch konfrontiert werden. Ebenso ist es sicher auch bei Naturwissenschaftlern, von denen viele gern und oft von "Wahrheit entdecken" sprechen, beim genauerem Nachfragen es aber bei "beste Erklärung im Rahmen der bisherigen bekannten gewordenen Evidenz" bleibt.
Meiner Wahrnehmung nach gibt es große Unterschiede zwischen Sozial-und Geisteswissenschaften. Auch hier sollten wir auf Genauigkeit der Begrifflichkeit in der Wissenschaft achten, wobei man im öffentlichen und medialen Diskurs (des Zeitungslesens?) sicher wieder - wie bei fast allen Begriffen - ein anderes Verständnis zur Anwendung kommt. Nico Stehr (und ich) haben dazu mal was geschrieben, von der Dualität der Begriflichkeiten: Stehr, N., und H. von Storch, 1998: Soziale Naturwissenschaft oder die Zukunft der Wissenschaftskulturen. Vorgänge 142, 8-12
download: https://www.academia.edu/10516959/Soziale_Naturwissenschaft_-_oder_Die_Zukunft_der_Wissenschaftskulturen
@Hans von Storch
ReplyDeleteMeines Erachtens ging auch der vorangegangene Thread nicht um das was sie in #4 angesprochen haben.
Es geht meines Erachtens auch nicht um Wahrheit oder einen Wahrheitsanspruch, sondern wie Methoden egal aus welcher Fachrichtung in einen Kontext eingebettet sind. Um die Grenzen dieser Methoden zu erkunden muss man den Kontext herausarbeiten, um die Grenzen auszuloten, ohne in "moralische" Kategorien zu fallen. Meines Erachtens gibt es in dem Argument von Herrn Krauss keine Unterschiede zwischen verschiedenen Wissenschaften bzw. Fachrichtungen da sich das Argument auf die Gemeinsamkeiten beschränkt. Das ist so ähnlich wie die Gruppentheorie die auch die Strukturen untersucht und es wird später in den unterschiedlichenBereichen der Physik konkretisiert.
Wir haben das im Grunde an dem Beispiel der Statistik diskutiert.Das hat anscheinend zu dem Missverständnis geführt. Anwenden lässt sich das Argument auf verschiedene Methoden und auch in verschiedenen Fachrichtungen. Egal ob Geistes-, Sozial-, oder Naturwissenschaften.
Vielen Dank, Günter Heß, fürs aktive Mit- und Weiterdenken! Andere haben eben ihre Meinung schon vor vielen Jahren festgelegt, das ist natürlich auch in Ordnung. Für hvw ist das wohl anscheinend eher Stammtisch, aber dafür aber konzidiert er immerhin, dass es noch offene Fragen gibt und formuliert diese sogar. Merci dafür.
ReplyDeleteGut gefallen hat mir die Flughafengeschichte von Hans - Flughäfen sind ideale Orte zum Denken, gerade dieser Tage. Mir gefällt vor allem der fake claim von Hans, zu 70% in der falschen Warteschlange zu stehen. Das ist natürlich keine Statistik, aber es ist ein Versuch, in einer unkontrollierbaren Situation, wo unweigerlich Größen-, Ohnmachts-, Wut- und andere Fantasien geweckt werden, Zahlenmagie auszuüben und so eine wenn auch fiktive Ordnung herzustellen. So zumindest meine Interpretation, mit der ich auf die "theologischen Mucken" (Karl Marx) der Statistik hinweisen will. Statistik ist natürlich eine wissenschaftliche Methode, aber selten nur eine solche. Sie transportiert immer noch mehr, da sie immer in Kontexten zu einem bestimmten Zweck angewendet wird.
Wie auch immer, diese Geschichte erinnerte mich an die Lektüre eines Buches, das bei der Anwendung der ethnologischen Methode der teilnehmenden Beobachtung wichtige Einsichten liefert. Georges Devereux hat in "Angst und Methode in den Verhaltenswissenschaften" untersucht, wie in der Wissenschaft quantitative Methoden auch zur Angstabwehr und Distanzierung von unkontrollierbaren oder messy Situationen dienen können. Durch "Objektivierung" kann sich z.b. der Psychiater vor den von ihm als bedrohlich empfundenen Phantasien des Patienten schützen. Analog dazu kann sich der Klimaforscher vor der Angst vor dem Weltuntergang, mit welcher er bei der andauernden Beschäftigung mit diesem Thema konfroniert wird, schützen, indem er den Klimawandel auf ein statistisches Problem reduziert. Die Statistik wird so zur Magie und schafft eine Distanz, sie neutralisiert die bedrohliche Situation und objektiviert sie, zumindest vermeintlich. Die Frage ist nur, ob der Wissenschaftler - der Psychiater, der Klimaforscher - dann noch das Problem - das Leiden des Patienten, die Klimaerwärmung - im Auge hat, oder nur noch seinen Selbstschutz und die Aufrechterhaltung seiner Autorität. Die vermeintlich objektive Methode entwickelt hier unter Umständen eine Eigendynamik, die nur noch wenig mit Wissenschaft zu tun hat. Devereux plädiert dafür, diese psychologischen Prozesse der Übertragung und Gegenübertragung zu thematisieren und in den wissenschaftlichen Prozess aktiv mit einzubeziehen - um der besseren Wissenschaft Willen.
Ist dies nicht der Fall, entstehen oft verquere Lösungsansätze, die eher aus der Verdrängung als aus einer offenen und problemorientierten Herangehensweise resultieren. So oder ähnlich ist der Hintergrund für meine These, dass dies der Fall ist, wenn das Klimaproblem auf seine messbaren und statistisch erfassbaren Elemente reduziert wird (Treibhausgase) und daraus dann eine Klimapolitik abgeleitet wird, die allein an den Symptomen - den Emissionen - rumdoktert, die Ursachen aber nicht thematisiert. Vergleichbar dem Psychiater, der lieber eine Dosis Ritalin verschreibt als sich dem Gefühlschaos seines Patienten weiter auszusetzen. Das heißt nichts gegen Statistik oder gegen Verschreibung von Medikamenten, sondern ich will damit nur sagen, dass der Hinweis, dass es sich bei Statistik um eine wissenschaftliche Methode handelt (Hans), die Diskussion nicht beendet.
Das ist jetzt alles etwas hölzern und schematisch dargelegt, aber vielleicht ja ein weiterer Anreiz, um über Statistik als Methode, als Medium und als Machtmittel produktiv nachzudenken.
Herr Krauss, Herr Heß, ich fürchte wir kommen nicht zusammen, solange es um "Statistik" geht; vielleicht sind die Ausgangspunkte einfach zu verschieden. Erlauben Sie mir, einen eleganten Themenwechsel zu versuchen:
ReplyDeleteDevereux schreibt 1967:
"Verhaltenswissenschaftler, die die Tatsache stört, daß ihre Disziplin hinter der Naturwissenschaft zurückbleibt, versuchen das durch die Nachahmung physikalischer Verfahrensweisen wettzumachen. Einige untersuchen nur quantifizierbare Phänomene und ignorieren vorläufig alle Daten, die sich nicht auf Anhieb quantifizieren lassen, selbst wenn sie von schlagender Bedeutung sind. Die notwendige Differenzierung zwischen den Techniken der Physik, die vor allem durch die spezifische Natur der physikalischen Phänomene bestimmt werden, und einer allgemeinen wissenschaftlichen Methode, die interdisziplinäre Gültigkeit hat und deshalb gleichermaßen auf die Natur- und die Verhaltenswissenschaft anwendbar ist, wird dabei stillschweigend versäumt. ... Bedauerlicherweise kann die mechanische Übertragung von Techniken der Naturwissenschaften auf andere Wissenschaften – wie es beispielsweise beim zwanghaften Quantifizieren geschieht – zu dem logischen Trugschluß führen, daß reines Quantifizieren ein Datum wissenschaftlich mache."
"Ähnliche methodologische Fehler beeinträchtigen auch andere verhaltenswissenschaftliche Untersuchungen, die mehr die Techniken der exakten Wissenschaften nachahmen, als sich von der ihnen zugrundeliegenden Methode inspirieren zu lassen. Mehr noch, in vielen dieser Untersuchungen werden wissenschaftlich aufgemachte – oder, lieber noch, physikalische –Verfahrensweisen angewendet, nicht, weil sie angemessen wären, sondern weil Verhaltensforscher beweisen wollen, daß ihre Disziplin so "wissenschaftlich" ist wie die Naturwissenschaften. Das prestigeheischende Quantifizieren des Unquantifizierbaren ist, bestenfalls, dem Leibniz’schen Versuch vergleichbar, die Existenz Gottes mathematisch zu beweisen."
Ist das nicht ein Hinweise darauf, dass die beklagte Hinwendung von Sozialwissenschaftlern zu ungeeigneten quantitativen Methoden auch andere Ursachen als die Imapct Factor beeinflusste Wissenschaftspolitik im 21. Jhdt. haben könnte?
@Werner Krauss
ReplyDeleteSie schreiben:
„Ist dies nicht der Fall, entstehen oft verquere Lösungsansätze, die eher aus der Verdrängung als aus einer offenen und problemorientierten Herangehensweise resultieren“
Ich kann das gut nachvollziehen und möchte das mit einer Beobachtung aus meiner beruflichen Praxis ergänzen. Wir haben oft folgendes Problem. Eines unserer Produkte fällt im Feld aus. Unsere Kunden machen dann auch schon mal wissenschaftliche Analysen, beobachten etwas was sie vorher noch nie gesehen haben. Kein Wunder sie haben ja noch nie mit dieser Methode hingeschaut wenn es der erste Ausfall dieser Art ist. Jetzt schicken sie uns ihre „objektiven“ Daten (Korrelationen zu Ausfällen, chemische Analytik, Elektronenmikroskopie, etc) mit dem Bauteil und ihrer wissenschaftlich untermauerten Vermutung. Dann ist es zunächst mal sehr schwer unsere Teams so zu trainieren, dass sie diese Vermutungen und Daten erst mal ausblenden und offen an das Thema herangehen. Oft müssen wir auch Ressourcen reinstecken den Kunden zu überzeugen, dass das ganz normal ist was er gesehen hat und die Ursache gegebenenfalls woanders liegt. Das heißt wir müssen zusätzliche Untersuchungen machen um seine Hypothese auszuschließen. Währenddessen ist das Problem aber nicht wieder aufgetreten, weil es ja eventuell ganz woanders lag, zum Beispiel in der Verarbeitung beim Kunden. Dann stecken wir meistens trotzdem weiter Ressourcen in das Problem.
Oder aber wir beim Verifizieren einer Hypothese geht das Problem weg und wir denken die Ursache gefunden zu haben, stecken Ressourcen in diese Abstellmaßnahme und geben sogar Geld aus für eine neue Anlage. Nach einem Jahr tritt das Problem wieder auf, weil wir die tatsächliche Ursache nicht gefunden haben. Und noch schlimmer die vermeintliche Abstellmaßnahme hatte einen negativen Effekt auf eine andere Produkteigenschaft der erst später sichtbar wird.
In dieser komplexen Situation gibt es nun das gesamte Spektrum, von der Abstellmaßnahme zur Beschwichtigung (Placebo, Ritalin) bis hin zur kompletten Beseitigung der Ursache. Für uns allerdings ist es das Beste wenn der Kunde uns seine Problembeschreibung und das Bauteil zurückschickt, ohne dass er uns seine „objektiven“ Daten schickt.
Man muss sich jetzt im Klaren sein das der von mir beschriebene Mechanismus immer präsent ist. Man muss sich darauf einstellen sonst wird die Ursachenermittlung und die Beseitigung der Ursachen behindert.
Ich denke ja. Ihre These muss Berücksichtigung finden und man muss sich darauf einstellen, wenn es darum gehen soll die Ursachen der Probleme nachhaltig zu beseitigen und nicht nur die Symptome zu kurieren. Ich erlaube zum Beispiel genau aus diesem Grund den Teams nicht nur an einer Hypothese zu arbeiten. Das Team muss immer mindestens an zwei Hypothesen arbeiten und alle Hypothesen die im Team entstehen dokumentieren auch die unwahrscheinlichen, auch wenn wir sie nicht alle abarbeiten. Wenn das Problem wieder auftritt werden sie angepackt.
Lässt sich bei begrenzten Ressourcen nicht immer durchhalten, man muss sich das aber bewusst machen.
@hvw
ReplyDelete"Ist das nicht ein Hinweise darauf, dass die beklagte Hinwendung von Sozialwissenschaftlern zu ungeeigneten quantitativen Methoden auch andere Ursachen als die Imapct Factor beeinflusste Wissenschaftspolitik im 21. Jhdt. haben könnte?"
Wir kommen nicht zusammen, weil es in der Diskussion und in der These von Herrn Krauss gar nicht um ungeeignete quantitative Methoden geht.
Stattdessen geht es in der These um die methodische Verwendung geeigneter quantitativer Methoden. Wenn sie diesen Gedanken nicht aufgreifen kommen wir in der Diskussion natürlich nicht zusammen. Sie diskutieren über einen anderen Prozess, über ein anderes Thema.
ich gehe zum Beispiel in allen Argumenten als Randbedingung der Argumentation in den beiden Threads davon aus, dass Wissenschaftler geeignete Methoden nach besten Wissen und Gewissen professionell anwenden. Dass auch die Medien diese "objektiven" Daten unverfälscht nach besten Wissen und Gewissen wiedergeben.
Unter dieser Randbedingung haben sich die Argumente entwickelt. Wenn sie andere Randbedingungen setzen ist es eine andere Diskussion.
Vielleicht noch ein anderes Beispiel zu objektiven Daten und geeigneten Methoden.
ReplyDeleteEin Freund hat sich zur Promotion mit der Analytik von Dioxin in der Umwelt beschäftigt.
Als ich ihn nach Jahren wieder traf hat er mir gesagt, dass er einen Großteil seiner Zeit damit verbracht hat zu untersuchen wie man Referenzproben ohne nachweisbaren Dioxingehalt hinbekommt und wie man in der realen Welt eine Probenentnahme hinbekommt ohne dass Dioxin eingeschleppt wird. Er hat auch berichtet, dass nur wenige Arbeitsgruppen das sicherstellen könnten.
Seiner damaligen Einschätzung nach sind damals in der wissenschaftlichen Literatur sehr viele Artikel erschienen die Dioxinwerte berichteten und deren experimentelle Methodik oft nicht sicherstellte dass nichts eingeschleppt wird. Trotzdem haben ja alle diese Arbeiten geeignete quantitative Methoden verwendet nach besten Wissen und Gewissen. Viele dieser wissenschaftlichen Artikel wurden von den Medien nach besten Wissen und Gewissen wiedergegeben und zitiert. Mit vielen dieser Werte wurde Umweltpolitik gemacht.
Es geht eben nicht nur um geeignete quantitative Methoden, sondern auch um ihre geeignete problemangepasste Verwendung in einem komplexen Prozess und in einer komplexen Umwelt.
Oft ist es ja nicht die Methode die Unsicherheit und Unschärfe bestimmt, sondern die Umwelt oder das komplexe Problem.
hvw #12,
ReplyDeletedas ist kein Themenwechsel, sondern ein weiterer Aspekt desselben Themas. Ich habe lediglich Devereux um ein halbes Jahrhundert upgedated, in die Klimadebatte. Sie bestätigen nur, was ich gesagt habe, und ja, es gibt viele Gründe, warum Sozialwissenschaftler sich so verhalten und auch, warum Naturwissenschaftler sich gerne für die beseren Sozialwissenschaftler halten. Zwei Seiten einer Medialle, um Sie zu zitieren. Dass die Wissenschaftspolitik diese Tendenz verstärkt und die Quantifizierung zur Vergleichsgrundlage macht, finde ich bedenklich - dies war der Ausgangspunkt meines Posts. Devereux hilft das Begehren von Wissenschaft zu verstehen, das Klimaproblem mittels Quantifizierung zu domestizieren und zugleich auf Distanz zu halten. Das ist problematisch und ein guter Ausgangspunkt, weiter zu denken.
"Devereux hilft das Begehren von Wissenschaft zu verstehen, das Klimaproblem mittels Quantifizierung zu domestizieren und zugleich auf Distanz zu halten. Das ist problematisch ..."
ReplyDeleteProbleme mittels Quantifizierung domestizieren und zugleich auf Distanz halten, um die Voraussetzung zu einer desinteressierten (Merton) Analyse zu schaffen -- das gehört doch zur traditionellen Tätigkeitsbeschreibung der Naturwissenschaftlerin, oder nicht?
Ich versuche nochmal mit einer Metapher den Stand der Diskussion zu beschreiben.
ReplyDeleteIn der Statistik wird ja ab und zu folgende Metapher. Fritzchen sieht einen Mann der in der Nacht mehrere Stunden unter einer hellen Laterne etwas sucht. Was suchst Du da, fragt Fritzchen. Meinen Schlüssel, sagt der Mann. Warum suchst Du nur unter der Laterne fragt Fritzchen. Weil ich da wenigstens etwas sehe und die Wahrscheinlichkeit höher ist, dass ich den Schlüssel finde.
Ein reales komplexes Problem besteht nun aus vielen Bereichen in denen Laternen stehen die einen Teilbereich jedes Bereichs ausleuchten. Die quantifizierbaren Methoden sind nun die Laternen. Wenn man nun den Schwerpunkt in Projekten auf diese Methoden und in wenige Bereiche legt, dann ist das vielleicht eine gute Anfangsstrategie zur Problemlösung, aber in Projekten die komplexe Problem untersuchen muss man diese Einschränkung überwinden.
Und es macht auch keinen Sinn immer mehr Wissenschaftler in die Projekte zu stecken und alle unter den Laternen suchen zu lassen. Man muss eben auch berücksichtigen, dass man in den hellen Bereichen auch stärker geblendet wird und dass man deshalb dann im Dunkeln schlechter sieht. Das heißt diejenigen die im Dunkeln arbeiten können unter Umständen Dinge in den hellen Bereichen sehen die dort verdeckt sind.
Wenn jetzt in den Projekten ein Konflikt ausbricht, weil diejenigen unter der Laterne ihre Methodik für besser geeignet halten, weil es dort heller ist, dann hat das Projekt ein Problem. Und das ist genau das was Herr Krauss und auch Deveraux aufzeigen.
"Naturwissenschaftler sich gerne für die beseren Sozialwissenschaftler halten"
ReplyDeleteStarker Ansage. Ein Versuch für eine gemeinsame Basis: Klimaanpassungsprojekte haben oft einen lokalen geographischen Bezug, und es geht um konkrete gesellschaftliche und politische Aktivitäten. Es braucht zwar Klimamodellierer / Hydrologen, .. die die natürliche Umwelt der besten Praxis gemäss korrekt durchrechnen, aber die eigentliche wissenschaftliche Leistung, in der über Erfolg und Misserfolg entschieden wird, wo neues Wissen geschaffen und angewendet wird, passiert in der gesellschaftswissenschaftlichen Domäne. Oder sollte dort passieren. Trotzdem liegt der Lead bei der Klimafrau und der Projektbeschrieb richtet sich nach deren Arbeitsweise anstatt nach der Methodik, die für den Soziologen angemessen wäre.
Wieso? Weil die Naturwissenschafter "Statistik!" schreiend die Geisteswissenschaftler beiseite rockern? Andere plausible Gründe? Was tun?
Können wir bitte mal eine Begriffsklärung herbeiführen: Geisteswissenschaftler = Sozialwissenschaftler? ich glaube kaum. Vielleicht kann sich Rainer Grundmann, der eindeutig Sozialwissenschaftler ist, mal dazu äussern. Oder jemand anderes?
ReplyDeleteIch schlage auch vor, dass wir den Begriff und die Rolle der Evidenz besprechen. Wenn wir von qualitativer/m Analyse/Wissen (?) sprechen, dann meinen wir doch nicht: Evidenz-freiheit? Oder, dass episodische Einzelfälle als Begründung (statt als Illustration oder Motivation) herhalten können? Und wieder die unselige Frage nach der Falsifikation: welche denkbare (aber vielleicht unplausible) Evidenz würde eine vorgeschlagene Erklärung zu Fall bringen? Wenn die Antwort lautet: keine - dann ist die betreffende Erklärung nicht evidenzbasiert.
Die Vorstellung "die eigentliche wissenschaftliche Leistung, in der über Erfolg und Misserfolg entschieden wird, wo neues Wissen geschaffen und angewendet wird" halte ich für problematisch. Was für "Wissen" ist hier gemeint? Impliziert "wissenschaftliche Leistung" Anwendungseignung?
@HvS
ReplyDeleteMeiner Meinung nach impliziert wissenschaftliche Leistung genau nicht Anwendungseignung.
Die Lösung eines Problems mit wissenschaftlichen Methoden, also eigentlich Engineering in meiner Begriffswelt misst sich an der Anwendung und ob eine Lösung erarbeitet wird.
Dem stimme ich gerne zu.
ReplyDelete@HvS
ReplyDeleteZu Evidenz.
Auch eine Religion ist ja nicht evidenzfrei.
Episodenhafte Einzelfälle sind nun mal die Evidenzen die auch die Lebenswirklichkeit von Menschen. Dazu kommt, dass auch wissenschaftliche Artikel episodenhafte Einzelfälle als Begründungen enthalten.
Dem stimme ich nun wiederum nicht zu.
ReplyDeleteEinzelfälle sollten nicht als Begründung für Schlußfolgerungen dienen aber durchaus als Begründung / Motivation für Hypothesen. Tatsächlich werden aus vielen Einzelfällen Schlußfolgerungen gezogen. Eine gute wissenschaftllich durchdachte Methodik nennt man Statististik, die idealerweise Irrtumswahrscheinlichkeiten angibt, sofern die Voraussetzungen erfüllt sind. [Dies ist nicht der Prozent-Sprech in den Medien.]
Evidenzbasierung von qualitativen oder quantitativen Aussagen impliziert Falsifikationspotential. Ist eine Falsifikation von Religion denkbar?
@HvS
ReplyDeleteWir müssen uns nur im Klaren sein, dass viele BMBF Förderprojekte und EU Projekte in meiner Begriffswelt Engineering bzw. Entwicklung sind, aber dort unter Forschung laufen. Das liegt vermutlich daran, dass sich der Begriff Wissenschaft bzw. Forschung ausgedehnt hat im Zeitgeist.
An den Förderquoten und der Förderpolitik kann es ja nicht liegen, weil ja Wissenschaftler objektive Idealisten sind.
@HvS
ReplyDelete"Sollten" ist so eine Sache. Aber zum Beispiel im Fachbereich Ökologie ist das eine Kritik auf die ich im gleichnamigen Buch von Prof. H. Remmert gestoßen bin, nämlich dass dort zu viele episodenhafte Beobachtungen zur Begründung herangezogen werden. Das ist also durchaus Bestandteil der Wissenschaft. Oder was sind die jamal Daten lokale Besonderheiten oder globale Evidenzen?
Religion besteht ja nicht nur aus einem Gottesbeweis, sondern auch aus einem Satz von sozialen Regeln die empirisch in der Lebenswirklichkeit getestet werden, ob sie funktionieren.
Die können falsifiziert werden wenn sie nicht funktionieren.
Herr von Storch,
ReplyDelete"Impliziert "wissenschaftliche Leistung" Anwendungseignung?"
Dieser Kommentar enthält keine allgemeinen Aussagen, sondern ist ein Versuch, sich auf eine hypothetische aber realistische Situation als Beispielproblem zu einigen, um dem Metaphernebel zu entfliehen.
"Evidenz, Falsifikation"
Vielleicht haben die Geisteswissenschaften bereits eigene Kriterien zur epistemologischen Validität ihrer jeweiligen Ergebnisse entwickelt? Dann könnten wir doch vorläufig einfach mal die nehmen ;).
hvw - meinen Sie "Geisteswissenschaften" oder "Sozialwissenschaften" oder fassen Sie alles, was nicht-Naturwisenschaft ist, unter diese Begriffe, die für Sie vielleicht weitgehend austauschbar sind?
ReplyDeleteIch bin seit 20 Jahren vor allem im Bereich der Sozialwissenschaften, im geringen Maße auch in Geisteswissenschaften als Besucher unterwegs, und bin bisher - abgesehen vom Testen anhand neuer, unabhängiger Evidenz, mit keinen "Kriterien zur epistemologischen Validität ihrer jeweiligen Ergebnisse" trotz Nachfrage konfrontiert worden. Was sicher kein Beweis ist, dass es solche "Kriterien" nicht gäbe.
Es geht auch nicht nur um die grundsätzliche Falsifikationsmöglichkeit sondern auch um den Umgang mit ähnlich erklärungsstarken aber gegenseitig inkonsistenten Thesen. Ich hatte neulich so einen Fall, als sich ein Sozialwissenschaftler strikt weigerte, sich in einem Artikel dahingehend zu äussern, ob neben seiner Erklärung auch andere denkbar wären. Wenn die Aussage des Artikel gewesen wäre "Phänomen A ist im Rahmen der Theorie X erklärbar" oder "Eine Erklärung für A liefert X", wäre alles ok für mich; war sie aber nicht - sondern "Die Erklärung für A liefert X".
Günter Heß - mir ist das Buch von Herrn Remmert nicht bekannt; wenn Ihre Darstelllung zutrifft, dann ist seine wissenschaftliche Tiefe wohl ziemlich begrenzt. Insbesondere in Buchform sieht man da sowas bisweilen bei Naturwissenschaftlern (vgl. "Kalte Sonne") - da gibt es ja keinen Peer-Review (der die manche Auswüchse in Schach halten könnte).
@HvS
ReplyDeleteProf. Remmert ist eine der deutschen Korphäen im Bereich Ökologie, einer der Pioniere in diesem Fachgebiet. Er belegt in seinen Büchern Ökologie, Naturschutz und Terrestrische Ökosysteme eindrucksvoll wie mit dem Aufkommen der Politisierung des Begriffes Ökologie episodenhafte Beobachtungen auch in die Wissenschaft Einzug erhielten. Er warnte seine Studenten entsprechend.
Aber das Buch belegt, dass eben ihre heile Welt Darstellung oben eben auch nur eine heile Weltdarstellung ist.
Oy vey, da geht einiges durcheinander und ich glaube kaum, dass mein Beitrag das klären kann.
ReplyDeleteIch denke es bringt wenig sich um Begriffsdefinitionen zu streiten. Diese werden einerseits institutionell vorgegeben (z.B. im Web of Science: Sciences, Social Sciences, Humanities), andererseits gibt es etwas, das man vielleicht Stildifferenz nennen kann. Manche Kollegen arbeiten gern disziplinär (und propagieren das auch), andere arbeiten disziplinär (und reflektieren das nicht mal). Beide mögen vielleicht quantitative oder qualitative Methoden bevorzugen (viel hängt davon ab, welche Methoden sie gelernt haben). Dann gibt es Kollegen, die arbeiten interdisziplinär, sind eher an Problemstellungen interessiert (egal ob anwendungsorientiert oder nicht). Ob dabei quantitative oder qualitative Methoden zum Zug kommen, kann nicht generell gesagt werden.
Generell ist es aber so, dass gesellschaftsweit messbare Daten einen größeren Aufmerksamkeitswert und größere Reputation haben, besonders dann, wenn die Daten umfassend sind, rigoros erhoben wurden, nachprüfbar sind etc. Das ist selten der Fall und es wird viel Schwindel (oder Wunschdenken) betrieben, um glaubhaft machen zu können, dass man eben solches Wissen hätte. Hat man aber oft nicht (ich weiss, das ist jetzt ein schwaches Argument, da ich es nicht quantifiziert habe, vielleicht ist es auch nicht quantifizierbar). Trotzdem ist solche Forschung wichtig, und ich sehe Herrn Hess' Beispiel der Fehlersuche in seinem Betrieb als solches.
Zum Schluss ein kurzer Hinweis auf das Forschungsfeld der Bewusstseinsforschung. Hier arbeiten Philosophen, Kognitionswissenschaftler, Artificial intelligence Leute, Psychologen etc über solche Dinge wie 'Qualia' (siehe Wiki Eintrag als Übersicht). Qualia sind subjektiv sinnliche Wahrnehmungseigenschaften von Dingen in der Welt, wie z.B. 'the redness of red'. Dieses Gebiet ist eine Forschungsrichtung die sich mit Qualitäten befasst, was nicht heisst, dass da keine Zahlen der Statistiken vorkommen.
corrigendum, letzter Satz:
ReplyDelete"dass da keine Zahlen *oder* Statistiken vorkommen"
"
ReplyDeletemeinen Sie "Geisteswissenschaften" oder "Sozialwissenschaften" oder fassen Sie alles, was nicht-Naturwisenschaft ist, unter diese Begriffe, die für Sie vielleicht weitgehend austauschbar sind?
"
Ich habe "Geisteswissenschaften" aus dem Posting abgeschrieben. Definitionswirrwar. Vielleicht sagen wir mal "Sozialwissenschaften", da ist klarer was gemeint ist, und wir haben Experten hier.
Rolle und Begriff von "Evidenz in den Soz.Wi." überfordern mich als passiven Konsumenten. Aber die Sache ist in den Naturwissenschaften auch nicht so klar, wie vom Popper-Mythos behauptet. Wann haben Sie denn zum letzten mal eine Hypothese falsifiziert, in dem Sinne, dass der Titel des Papers bis auf ein "not" identisch mit dem des falsifizierten war? ;). Eine Prise Feyerabend lässt den diesbezüglichen Unterschied zwischen Natur- und Soz.Wi. doch etwas verschwimmen.
In jedem Fall scheint mir die Sache (letztendlich Bewertung, "wie gut, robust, richtig, wissenschaftlich ist denn das?") für jede einzelne Soz.Wi. - Disziplin enorm komlexer zu sein als in allen Naturwissenschaften zusammen.
Ich denke, Sie werten den "Einzelfall" zu unrecht ab. Ethnologische Feldstudien z.B. sind immer "Einzelfälle". Alles was einigermassen tief geht ist i.d.R. ein "Einzelfall". Ich messe z.B. den Generalisierungen, die Ferguson in "The Anti-Politics Machine" macht, einen grossen Wahrheitsgehalt zu, obwohl die gesamte Empirik sich auf die Beobachtung eines Projekts in Lesotho beschränkt. Ich bin sogar überzeugt, dass dieses Wissen prinzipiell nicht durch eine quantitative Studie, die standardisierte Information auswertet, geschaffen hätte werden können.
@Reiner Grundmann
ReplyDeleteEs gibt ja auch naturwissenschaftliche Teilgebiete die kommen vom Prinzip auch völlig ohne Statistik aus.
Wenn ich in der organischen Chemie in der Syntheseforschung arbeite muss ich als Nachweis eine Substanz auskristallisieren, ein Röntgenspektrum, ein Massenspektrum und ein NMR-Spektrum machen und der Nachweis ist erbracht.
@hvw
ReplyDeleteich denke auch nicht, dass man episodenhafte Beobachtungen abwerten sollte.
Aber ein Ökosystem oder ein Klimasystem kann man kaum mit episodenhaften Beobachtungen verstehen.
Im Gegenteil in solchen System die über längere Zeitskalen operieren sind episodenhafte Beobachtungen schwierig. Es hängt eben von der Problemstellung ab.
Sie müssen in den Kontext eingeordnet und bewertet werden genau wie Statistiken. Der Wert dieser Methodik und die Bewertung ihres Ergebnisses bzgl. der Stärke als Argument kann nicht ohne Kontext vorgenommen werden.
Das führt wieder zurück auf Deveraux und das Argument von Herrn Krauss:
"Dass die Wissenschaftspolitik diese Tendenz verstärkt und die Quantifizierung zur Vergleichsgrundlage macht, finde ich bedenklich - dies war der Ausgangspunkt meines Posts"
Man muss die Methode erst in dem gegebenen Kontext verstehen, anschließend kann man bewerten welche Methode in dem gegebenen Kontext besser geeignet sein könnte.
Wenn man den Wert einer Methode aber ohne Kontext an quantifizierter oder nicht bewertet schränkt man sich ein und leuchtet den Untersuchungsbereich unter Umständen nur ungenügend aus.
Zwei Punkte:
ReplyDeletea) Episoden, Fallstudien - machen Sinn, um Hypothesen zu entwickeln, vorhandene Hypothesen zu falsifizieren - und um die Fälle zu "verstehen". Sie können Theorien und Erklärungen illustrieren; sie sind aber schwach als Argument für die Validität von Thesen, Theorien, Modellen, aber ggfs stark als Argument für die Invalidität.
d) Definitionen - es geht mir nicht um "richtig" oder "falsch", was auch wenig Sinn macht, weil man definieren kann wie man will solange eindeutig. In verschiedenen sozuialen gruppen nutzt man gleiche Begriffe veschieden (Multiplizität der Begrifflichkeit). MIr geht es darum, dass wir uns einig sind, worüber wir sprechen, wenn wir uns miteinander austauschen.
@Hanns von Storch
ReplyDeleteIhr a) können sie doch nicht a priori festlegen. Das ist der Knackpunkt und der Ausgangspunkt des Artikels.
Stattdessen hängt es vom Kontext ab. Das ist die Theorie bzw. die Thesen, das Modell oder die Hypothese sowie das Projektziel, vom Untersuchungsobjekt, dem Umfang und die Dauer des Projektes, etc. Das heißt es hängt auch von den Daten ab die sie zur Verfügung haben bzw. die sie in der Lebenswirklichkeit und damit der Natur erzeugen können.
Deshalb ist es wichtig diese Bewertung im konkreten Kontext vorzunehmen.
Anders ausgedrückt. Ihr a) erzeugt meines Erachtens in sozialen Gruppen genau das was Herr Krauss im Artikel anmahnt, aber auch Herr Grundmann andeutet.
Tut mir leid, Herr Heß - mein a) mag der Knackpunkt sein, aber eine Konsistenz einer Erklärung mit einer Beobachtung sagt über die Erklärung zunächst nur, dass sie nicht offensichtlich falsch ist. Ein schönes Beispiel ist die Bonanza der "Wellenanalysen" (weiss nicht, wie das damals genannt wurde), wonach man jede Zahlenreihe vollständig in eine Reihe von trigonometrischen Funktionen zerlegen kann. Das wurde gern und viel gemacht; es gibt immer noch "Experten", die das machen, auch daraus Zukünfte vorhersagen, - allerdings gab es dann Slutsky, in den 1930er Jahren, der die Schwäche des Ansatzes schön demonstrierte anhand weissen Rauschens.
ReplyDeleteWir können in der Regel immer viele Erklärungen für einen Fall konstruieren; üblicherweise zieht man zur Bewertung Occam's Messer heran; dazu muß man sich aber die Menge der Erklärungen vergegenwärtigen - einschließlich seiner eigenen Präferenzen. Wie schon früher gesagt, eine Methode, aus Einzelfällen auf eine Gesamtheit zu schließen, eine Gültigkeit jenseits des Falles abzuleiten, nennt man in der Wissenschaft Statistik. Verwandt damit: permanente Falsifikationsversuche - nach eindeutiger (testfähiger) Formulierung der These.
Der Artikel, der diese Diskussion ausgelöst hat, macht sich übrigens auch nicht die Mühe, alternative Erklärungen für die beklagten Phänomen zu benennen. Ich denke, die gibt es.
Die Festellung der Validität einer Theorie / Erklärung / Modells aus wenigen Einzelfall-Betrachtungen führt bisweilen zur Bildung grandiosen Universaltheorien, zu denen auch Religionen gehören, die zunächst alles erklären, und dann erlauben, auf notwendige Konsequenzen zu schließen. Ein Beispiel sind klimatische und rassische Determinismen, die mitwirkten beim US-Einwanderungsgesetzen in den 1920er Jahren. Siehe auch: Lindzen, R.S., 1996: Science and politics. Global Warming and eugenics. In R.W. Hahn (Ed.): Risks, costs and lives saved. Oxford University Press, 85-103. Der Zugewinn der modernen Wissenschaft ist ja gerade, sich nicht auf Zitate großer Namen wie Devereux oder Archimedes zu verlassen, sondern kritisch nachzugfragen anhand von unabhängiger Evidenz. Dabei ist ein Problem der Klimaforschung, dass es nur wenig unabhängige Evidenz gibt (unabhängig vom bisherigen Wissensanspruch).
Dass es viele Wissenschaftler gibt, die diese Überlegungen nicht anstellen und für einen schnellen "Erfolg" und erhofften höheren h-Faktor unausgegorene Thesen publizieren, auch in den sogenannten Qualitätsjournalen der Wissenschaft, ist sicher und beklage ich gerne gemeinsam mit Ihnen.
@Hans von Storch
ReplyDeleteDas gleiche was sie schreiben gilt wenn sie eine beliebige Statistik nehmen deren zugrunde liegende Daten sie an einem realen System gemessen haben.
Nehmen wir mal an eine Theorie sagt vorher, dass eine ganz bestimmte chemische Reaktion über Zwischenstufen mit einer ganz speziellen Stereochemie abläuft.
Dan wird durch die Präparation dieser Zwischenstufen die Theorie durch einen Einzelfallnachweis bestätigt.
Im übrigen habe ich gerade keine Präferenzen angewendet, indem ich verschiedene Methoden als gleichberechtigt betrachte was ihre prinzipielle Verwendung betrifft. Erst ein konkreter Kontext ermöglicht eine Präferenz.
Ihre Argumentation hingegen stellt eine bestimmte Methode ohne Kontext als höherwertig und wissenschaftlicher heraus. So liest sich zu mindestens ihr Text für mich.
Meiner Meinung nach ist so eine Präferenz nicht gerechtfertigt. Ehrlich gesagt habe ich zu meiner Studienzeit in der Experimentalphysik auch Aussagen gehört wie: "Wer einen Hypothesentest braucht, um sein Experiment auszuwerten und seinen Nachweis zu führen hat ein schlechtes Experiment aufgebaut." Statistik wurde als Notnagel betrachtet.
Auch diese a priori Präferenz halte ich für falsch.
Hans von Storch,
ReplyDelete"a) Episoden, Fallstudien - machen Sinn, um Hypothesen zu entwickeln, vorhandene Hypothesen zu falsifizieren - und um die Fälle zu "verstehen". Sie können Theorien und Erklärungen illustrieren; sie sind aber schwach als Argument für die Validität von Thesen, Theorien, Modellen, aber ggfs stark als Argument für die Invalidität."
Das ist natürlich unwiedersprochen. Allerdings scheint die Bedeutung von und der Umgang mit Hypothesen, Falsifikation, Theorien, Argumenten, Validität und Modellen, die aus diesem Post spricht, aus exklusiv naturwissenschaftlicher Perspektive herzurühren. Ja ich kann mir sogar vorstellen, dass er als Ausdruck als der von Herrn Krauss implizit beklagten Igno- und Arroganz von Naturwissenschaftlern interpretiert wird.
Ihre Beurteilung der Bedeutung von Fallstudien hat viel zu tun mit dem Streben nach Objektivität, nach Reproduzierbarkeit, nach Allgemeingültigkeit, der Prämisse von ex-ante Hypthesen- und Methodenformulierung. Alles ganz wichtige naturwissenschaftliche Tugenden.
In vielen (allen?, manchen?, vielleicht sagt mal ein Profi was dazu?) Traditionen qualitativer Sozialforschung sind das nicht (sondern oft genug das Gegeteil) die Tugenden:
Objektivität geht gar nicht, das Phänomen ensteht erst durch Interpretation und die Subjektivität des Forschers muss anerkannt oder sogar beschrieben und benutzt werden.
Reproduzierbarkeit und Allgemeingültigkeit sind nicht möglich, stattdessen muss der Kontext beschrieben und analysiert werden.
Hypothesen entstehen während der Forschungsaktivität und ändern diese, Auswertungsmethoden und Kategorien werden am Schluss gewählt.
Ob eine Arbeit valide ist oder nicht wird massgeblich durch Konsens bestimmt, nicht durch die Einhaltung von Regeln.
"
... eine Methode, aus Einzelfällen auf eine Gesamtheit zu schließen, eine Gültigkeit jenseits des Falles abzuleiten, nennt man in der Wissenschaft Statistik
"
Heisst das jetzt
a) "eine Methode [unter mehreren] ... nennt man ..."
oder
b) "eine [jede] Methode[, die geignet ist], ... nennt man ..." ?
@hvw
ReplyDeletesie schreiben:
"Ihre Beurteilung der Bedeutung von Fallstudien hat viel zu tun mit dem Streben nach Objektivität, nach Reproduzierbarkeit, nach Allgemeingültigkeit, der Prämisse von ex-ante Hypthesen- und Methodenformulierung. Alles ganz wichtige naturwissenschaftliche Tugenden."
Das ist richtig danach sollte ein Naturwissenschaftler streben, aber auch ein Sozialwissenschaftler. Das steht aber auch gar nicht zur Debatte.
Das verleiht aber einer statistischen Datenbeschreibung, einer Stichprobenmethodik oder einer schließenden Statistik nicht a priori oder ex ante eine höhere Qualität als anderen Methoden frei vom Kontext.
Ich habe oben an Hand eines Beispiels gezeigt, dass Einzelfallbeobachtungen in den Naturwissenschaften durchaus eine höhere „Beweiskraft“ haben können als eine Statistik an Daten die nur Indikatoren sind und einen indirekten Nachweis erlauben. Das hängt davon ab wie das Experiment aufgebaut ist, also hängt es vom Kontext und vom Untersuchungsgegenstand ab.
In vielen praktischen Fällen zum Beispiel in der Fehlersuche oder beim Aufklären von Reaktionsmechanismen in der Chemie helfen einem Hypothesentests und Statistiken nur begrenzt und es braucht ein konkretes Experiment mit einem konkreten Nachweis, dass ein bestimmtes Phänomen oder eine Zwischenstufe unter ganz konkreten Bedingungen auftritt. bzw. isoliert werden kann. Statistiken helfen in solchen Fällen oft auch nur beim Formulieren von Hypothesen wie es unter a) für Fallstudien, Episoden formuliert wurde.
Im übrigen ist das ja gerade was Herr Krauss oben als Kritik formuliert. Eine ex ante Methodenformulierung muss im Kontext des Untersuchungsgegenstandes passieren und nicht per Definition einer Präferenzfestlegung. einer sozialen Gruppe für eine bestimmte Methode.
Vielen Dank an alle Beteiligten für diese schöne Diskussion, die zeigt, dass es durchaus verschiedene legitime Standpunkte gibt, was Methoden und Ansätze betrifft. Ich kann nur hoffen, dass diese Vielfalt sich auch in Zukunft in der Ausrichtung der Wissenspolitik wiederfindet. Viele Ihrer Argumente, hvw und Günter Heß, finden sich in den transdisziplinären Science Studies wieder, Stichworte sind "situated knowledge" und "partial truths". (Damit will ich die Diskussion keinesfalls beenden, wollte mich nur mal wieder zu Wort melden, wo ich doch das Ganze hier angezettelt habe...).
ReplyDeleteich möchte versuchen zu zeigen, dass diese Punkte alle gar nicht so getrennt sind.
ReplyDeleteNehmen wir die Gravitationswellen oder Teilchenphysik.
Gravitationswellen, die haben eine klare Theorie. Sie gehen aus der Mathematik Einsteins heraus. Sie konnten nun wohl gemessen werden. Gemessen bedeutet mit Hilfe von einer coolen Messeinrichtung, viele Mathe und Statistik konnte ein Signal gefunden werden, was genau dem Modell von kollidierenden Schwarzen Löchern entspricht. Es gibt auch indirekte Methoden, aber es gab da auch Fehlschläge, wie BICEP2 (zu früh den Erfolg verkündet, passiert)
Ich finde, dieses Beispiel zeigt, wie ein Theorie, Modell, Messung und Statistik zusammenarbeiten können.
Aber das ist wieder naturwissenschaftlich.
Ich interessier(t)en mich in der Klimadebatte unterschiedliche Punkte: zuerst die Grundlagen, okay, hab ich soweit verstanden wie ich es als Laie kann. Es reicht um den "Skeptiker"krimskrams nicht wirklich ernst zu nehmen.
Dann die Wissenstransformation. Wie bringt man das Wissen eigentlich in die Allgemeinheit? Scheint ja doch recht schwierig zu sein, gerade bei einem so einfachen und doch allgemein diskutierten Thema. Finde ich immer noch spannend.
Dann sind da Punkte, warum "Skeptiker" so motiviert sind. Nur Kohle von Exxon ist es nicht. Das gilt vielleicht für Soon oder Singer, aber für andere nicht. Und es liegt sicher nicht an den bösen Alarmisten...
Aber irgendwie gibt es mehr. Fossile Energien sind die Grundlage der menschlichen Entwicklung in den letzten 2 Jahrhunderten. Um die Nutzung einzuschränken braucht es mehr als nur technologische Revolutionen, sondern es braucht eine Entwicklung in der Gesellschaft, die aber nicht irgendwie vorgegeben werden kann (ala Advantgarde von großen Transformationen). Fossile Energie selbst haben ja in der Industriellen Revolution was bewirkt. Ich kann das nicht fassen. Ich kann nicht fassen, wie wichtig Klima und fossile Energien sind. Welche Gefühle es gibt usw. Ich bin nur immer wieder erstaunt, was für Meinungen es gibt, die auf mich völlig irrational wirken.
Die Zeit schrieb mal über einen "Klimaskeptiker"-Kongress, dass es dort keine einheitliche Meinung gab, vieles abstrus war, es gab viel Streit, aber alle einte eine Wut. Kennt man von der AfD usw., oder? (Die ist nun auch "klimaskeptisch"...) Und hier sollte andere Richtungen als Naturwissenschaft mal ansetzen. Warum gibt es so viel Widerstand gegen jegliche Anpassung? Vielleicht ist es das: die Wut auf die da oben. Wer immer das ist.
Beste Grüße,
WAIIMHN
WAIIMHN,
ReplyDelete"Ich kann nicht fassen, wie wichtig Klima und fossile Energien sind. Welche Gefühle es gibt usw. Ich bin nur immer wieder erstaunt, was für Meinungen es gibt, die auf mich völlig irrational wirken".
Vielen Dank für diesen assoziativen Kommentar, liest sich wie ein innerer Monolog. Toll! Eine angemessene Form um zu beschreiben, wie es sich anfühlt, in einem Klima der Unsicherheit zu leben. Dafür lohnt sich die Bloggerei doch immer wieder!
@Werner Krauss
ReplyDeleteMich interessiert nach wie vor diese Präferenz für quantifizierbare Methoden die sie im obigen Artikel ansprachen.
Nehmen wir an ich habe einen Methodenkoffer in dem verschiedene quantifizierbare und nicht quantifizierbare Methoden enthalten sind. Wenn ich jetzt diese Methoden a priori und ohne den Kontext zu berücksichtigen bewerte dann bin ich im Grunde im Bereich des Glaubens bzw. des Vorurteils. Anders ausgedrückt ich habe es leichter, weil ich ja einige Methoden gar nicht erst in den Koffer packe.
Schleppe ich aber meinen schweren Koffer mit und prüfe und bewerte im Kontext welche Methode geeignet ist, dann bin ich im Bereich der Wissenschaft.
Glaube und Vorurteil kann deshalb nun ja darauf beruhen, dass ich immer den schweren Koffer mitschleppe, aber in 95% der Fälle immer die gleichen Methoden sich als geeignet herausstellen.
Das ist ein gängiges und pragmatisches Vorgehen welches wir in Bereichen anwenden die ich oben als „Engineering“ bezeichnet habe. Das sind dann bekannte Probleme und Untersuchungen die wiederholt auftreten. Der Kontext wurde schon mehrmals geprüft. Da läßt man dann im Grunde erstmal statistische Methoden sowie analytische Methoden (auch Einzelfallprüfungen und Befragungen vor Ort) ablaufen, um die Daten zu haben, bevor man das Projekt startet. Das ist ein pragmatisches Vorgehen. Der Nachteil ist, dass man in einigen komplexen Fällen auf die falsche Spur geschickt wird auch mit Statistiken.
Im Bereich Wissenschaft bzw. Forschung prüfen wir im Kontext, ob es im Koffer geeignete Methoden gibt und wählen im Kontext aus und entwickeln gegebenenfalls im Projekt eine neue Methode, wenn sich im Koffer keine geeignete Methode findet. Der Nachteil ist, dass man eine längere Vorbereitungszeit braucht bevor die eigentlichen Untersuchungen beginnen können.
Ein Teil ihrer Kritik besagt im Grunde, dass die Wissenschaftspolitik dazu führt, dass die geförderten Projekte eher einen „Engineering“-Charakter haben und die Wissenschaft zu kurz kommt..
Ihre Kritik oben besagt aber auch, dass es eventuell der Zeitfaktor ist, der die Methodenauswahl bestimmt.
Das würde ich sowohl im Bereich „Engineering“ als auch im Bereich “Wissenschaft bzw. Forschung“ als grob fahrlässig bezeichnen.
Günter Heß,
ReplyDeletevielen Dank, dass Sie Ihren Standpunkt noch einmal so klar dargestellt haben. Ich denke, dieser Thread hier gibt einen sehr schönen Überblick über verschiedene Positionen in dieser Debatte darüber, welche Rolle und welches Gewicht der naturwissenschaftlichen Methode zugesprochen werden sollte. Ausgangspunkt war u.a. der Artikel in der taz, aus dem ich einen eindeutigen Trend zur Quantifizierung in der Wissenschaft herauslas, mit der ernüchternden Konsequenz, dass Impact vor Inhalt kommt.
HvStorch hat klar Position bezogen und legt dar, dass moderne Wissenschaft auf den naturwissenschaftlichen Kriterien Evidenz, Validität und Falsifizierung beruht und so die Begriffs- und Ideengeschichte ersetzt hat.
hvw hat teilweise dagegen gehalten und sehr schön gezeigt, dass es Methoden in den Geistes- und Sozialwissenschaften gibt, die von anderen als den naturwissenschaftlichen Prämissen ausgehen und womöglich trotzdem eine Existenzberechtigung haben.
Sie, Günter Heß, haben einen problemorientierten Ansatz bezogen und ein klares Plädoyer für lösungsorientierte Methodenvielfalt gehalten.
Mich haben diese Beispiele in meiner Haltung bestärkt, und ich kann nur vor einer Ausweitung von statistischen Methoden auf alle mögliche Bereiche und vor allem auf Kosten qualitativer Ansätze warnen. Klimaforschung und Klimapolitik leiden unter einer Fixierung auf Quantitäten und unter einem Mangel an qualtitativem Wissen. Immer geht es darum, die Leute aufzuklären, irgendetwas anzupassen oder zu vermindern - ohne dass Adressaten und Akteure anders als statische Größen wahrgenommen, geschweige denn in ihrer Aktion und Interaktion verstanden werden. Die veränderten Bedingungen als Folge des Klimawandels erfordern zudem nicht nur neue Statistiken, sondern neue Begriffe und Ideen an der Grenze zwischen Wissen und Nichtwissen. Letzteres ist Aufgabe der Philosophie und der mit ihr verwandten Disziplinen. Der Klimawandel ist nicht nur eine technische, sondern eine intellektuelle Herausforderung, und die Erfolglosigkeit der bisherigen Klimadebatte ist, so meine Vermutung, auch ein Resultat der Quantifizierung von allem und jedem auf Kosten des Nachdenkens, Hinschauens und Mitfühlens.
Beim Lesen des letzten Absatzes musste ich an das neue Buch von Ulrich Beck denken, "Weltanziehungskraft" (http://www.zeit.de/2016/12/the-metamorphosis-of-the-world-ulrich-beck). Das ist doch genau das, was Naturwissenschaft nicht leisten kann.
ReplyDeleteEin anderer Ansatz verfolgt dieser Appell in Nature, den Wert der Sozialwissenschaft anzuerkennen: http://www.nature.com/news/recognize-the-value-of-social-science-1.19693?WT.mc_id=FBK_SB_NNews_0216
Für mich klingt das so, als würde man sich an das bestehende System anpassen, aber ein größeres Stück des Kuchens bekommen wollen. Aber dazu kann Reiner Grundmann sicherlich Qualifizierteres beitragen.
Viele Grüße,
Andreas
Vielen Dank, Andreas, für diese beiden perfekt ausgesuchten links, die an praktischen Beispielen die unterschiedlichen Wissenschaftsauffassungen demonstrieren, die wir hier abstrakt diskutieren. Toll.
ReplyDelete„Statistik ist nur dann tauglich, Menschen zu täuschen, wenn diese ihre sozusagen selbst verschuldete Unaufgeklärtheit bezüglich statistischer Methoden beibehalten wollen, um sich nicht mit der komplexen Beschaffenheit dieser auseinandersetzen zu müssen.“
ReplyDeletemeint Hans-Martin Esser, der an einen Buch arbeitet, in dem er Statistik mit der Philosophie in Verbindung bringt.
http://anonymer-philosoph.de/images/die_grosse_Klammer_1a.pdf
Sehr geehrter Hr von Storch
ReplyDeleteDies leiert nur aus, und ist eine Schande.
Ich habe einmal gelesen dass, wenn die Forscher oder Wissenschäftler nicht mehr taugen und "ins saat" oder "kraut" schiessen,..... dann schreiben sie Wissenschaftsteorie. Also diese "vermessung der Wissenschaft".
Und das sehr bedauerliche ist wenn leute oder die kinder oder studenten / aspiranten gleich damit anfangen ohne mal forscher und erwachsen geworden zun sein. Sie schiessen dann gleich ins Kraut ohne je was geleistet oder gefunden zu haben.
Das allerbeste davon was ich gelesen habe ist Arthur Eddingtons Philosophy of physical science und Nature of the physical world. Eddington, the man who understood the sun und Einstein entdeckt und für die angloamerikanische Welt introduciert hat, ..... hat am ende seines leben nicht wenig gesponnen und ist offenbar ins Saat geschossen..... und steht nur mit einem Fuss auf dem Pedestal. Aber da steht er gut.
Ich habe einmal Justus von Liebigs Biographie durchgeblättert um solide Argumente für die Agrarchemie und für und gegen Kunstdünger zu finden.
Und dort findet man die blutigste Schlacht von Francis Bacon was man überhaupt in det Weltlitteratur finden kann.
Liebig war sehr effektiv und produktiv und meinte dass er in seine Forschungen nur normal und vernünftig gehandelt hatte, und gar nicht mit solche Dummheiten wie Wissenschaftsteorie.
Aber dann hat er mit der zeit scheinbar auch Englisch gelernt und ist nach England gereist und hat dort herausgefunden dass man in England so- genannter "Common sense" hat..... , eher genau was er selbst zu haben meinte. Das war wohl Royal Society und die Cambridge- schule.
Heutzutage ist Carl Popper der grosse wissenschaftsteoretische GURU geworden. Er war zu meine Studienzeit gar nicht bekannt. Wir hatten andere und vielleicht noch bessere Oberlehrer..... eher aus der Cambridge & Harward- schule.
Einer davon muss unbedingt erwähnt werden denn er scheint sehr zentral zu stehen, William Whewelle. und dazu 2 begriffe: Convergence of induction, & Consilience. Alles Pflichtlesung auf Wikipedia.
Ich habe Popper näher untersucht. Dumm ist er auch nicht aber auf Wikipedia wird auch ganz klar gegen heutige Psevdo...& Vulgärpopperismus gewarnt, etwa Denialism oder unreife & besessene, desperat militante Querköppfigkeit und Engstirnigkeit / Parteiangehörigkeit..
Sonst, und das habe ich auch nie gelesen. Die grosse Katechismus der Wissenschaftsteorie heutzutage ist hier von Prof Dagfinn Føllesdal & Professor Lars Walløe geschrieben. Zu meine Zeit war es eher Arne Næss. Aber ich habe neben Eddington auch Carl Gustav Jung auf Pensum um auch Humaniora zu decken.
Tim Harford hat einen wunderbaren Artikel in der Financial Tiimes zum Thema Statistik.
ReplyDeletehttp://www.ft.com/cms/s/2/2e43b3e8-01c7-11e6-ac98-3c15a1aa2e62.html
Seine Beispiele kommen aus der Sozialpolitik Großbritanniens, und aus dem US Wahlkampf (lesenswert!). Zum Beispiel die Verwendung von Statistiken unter Politkern vor der letzten Parlamentswahl im Königreich:
'The shadow chancellor of the day, Ed Balls, declared that a couple with children (he didn’t say which couple) had lost £1,800 thanks to the government’s increase in value added tax. David Cameron, the prime minister, countered that 94 per cent of working households were better off thanks to recent tax changes, while the then deputy prime minister Nick Clegg was proud to say that 27 million people were £825 better off in terms of the income tax they paid.'
Wie Harford zeigt, sind alle drei Aussagen in gewisser Weise korrekt, aber dennoch irreführend: 'Each claim was narrowly true but broadly misleading. Not only did the clashing numbers confuse but none of them helped answer the crucial question of whether Cameron and Clegg had made good decisions in office.'
Man sollte vielleicht einmal die Klimaproblematik mit dem gleichen Zugang untersuchen. Viele Statistiken sind in gewisser Weise korrekt, aber auch irreführend (mir fällt die Debatte über den sogenannten 'Hiatus' in der Termperaturentwicklung ein).
Harford nutzt eine Idee des Philosophen Harry Frankfurt, der zwischen Lügnern und Dummschwätzern unterschied: 'the difference between the liar and the bullshitter was that the liar cared about the truth — cared so much that he wanted to obscure it — while the bullshitter did not. The bullshitter, said Frankfurt, was indifferent to whether the statements he uttered were true or not. “He just picks them out, or makes them up, to suit his purpose.”'
Das trifft auf alle Politker in Harfords Artikel zu, die Frage ist, wie viel 'bullshit' von denen produziert wird, die es besser wissen sollten. Wissenschaftler-Aktivisten sind hier angesprochen.
Unsere Infrastruktur der Kommunikation, vor allem über elektronischer Medien, erleichtert das Verbreiten von 'bullshit' ungemein, wie Harford schreibt:
'Statistical bullshit is a special case of bullshit in general, and it appears to be on the rise. This is partly because social media — a natural vector for statements made purely for effect — are also on the rise. On Instagram and Twitter we like to share attention-grabbing graphics, surprising headlines and figures that resonate with how we already see the world. Unfortunately, very few claims are eye-catching, surprising or emotionally resonant because they are true and fair. Statistical bullshit spreads easily these days; all it takes is a click.'
Also, um auf den Aufhänger von Werner's exzellentem Eingangskommentar zurückzukommen, wäre es nicht an der Zeit den Propagandisten der Statistik ihre eigenen Auswüchse um die Ohren zu hauen?
Reiner,
ReplyDeleteich denke, Dein Beispiel zeigt nur mal wieder, dass in der öffentliche Debatte dann von Statistik gesprochen wird, wenn Prozentzahlen gemeint sind. Mit Statistik im wissenschaftlichen Sinne hat das zunächst nichts zu tun.
Ich erinnere einen Zeitungsbericht in einer "normalen" Tageszeitung in British Columbia, wo tatsächlich das Ergebnis einer statsitischen Bewertung einer Hypothese kurz aber doch korrekt erklärt wurde. Das ist also möglich, wenngleich unüblich und nicht erwartet.
@Werner Krauss
ReplyDelete"Indigenous knowledge and experience have historically been under-represented in the IPCC's reports. New guidelines, policies and more nuanced content are needed to develop culturally relevant and appropriate adaptation policies."
http://www.nature.com/nclimate/index.html
@Hans von Storch
ReplyDeleteWenn auf der Webseite des PIK steht:
„In Zukunft wird der Klimawandel wahrscheinlich die Stabilität des Monsuns stören – die akkurate Vorhersage wird dadurch noch wichtiger.“
Beruht diese Aussage „wahrscheinlich“ auf ihrer guten Statistik gemacht von Naturwissenschaftlern oder ist das „carefully“ crafted Bullshit wie es Reiners Artikel ausdrückt und wie unterscheidet der Staatsbürger wenn er Pressemeldungen von solchen wissenschaftlichen Instituten liest und darüber berichtet wird.
Hans,
ReplyDeletedie Frage ist, was die Aussage, dass Statistik eine wissenschaftliche Methode sei, im Hinblick auf die hier im Post gestellte Frage bedeutet. Die Frage war: Wollen wir Hochschul- und Wissenschaftspolitik vornehmlich nach statistisch erhobenen Impact Kriterien wie Hirschfaktor, Anzahl der Drittmittelprojekte etc entscheiden, oder auch nach inhaltlichen, gesellschaftsrelevanten oder anderen Kriterien?
Der Hinweis, dass Statistik eine wissenschaftliche Methode sei, hat hier, mit Verlaub, etwas autistisches. Niemand bezweifelt das. Es geht darum, dass es auch andere Methoden gibt und ob wir solche fördern und die Ergebnisse, die sie hervorbringen, auch bei unseren gesellschaftlichen Entscheidungen zur Verfügung haben und berücksichtigen wollen.
Um aus meinem Feld zu sprechen: Auch teilnehmende Beobachtung ist eine wissenschaftliche Methode. Teilnehmende Beobachtung in der Wissenschaft zeigt, dass der Hirschfaktor - immerhin einer der Maßstäbe für wissenschaftliche Exzellenz - eine Kategorie ist, bei der wissenschaftliche Qualität nur ein Faktor unter vielen ist. Dasselbe gilt für die Anzahl der Drittmittelprojekte, die ein Institut durchführt: dies sagt nur bedingt etwas über die Qualtität oder gar Relevanz dieser Studien aus. Dennoch spielen diese Kriterien in der Hochschul- und Wissenschaftspolitik eine zentrale und immer größere Rolle, genauso wie in der Ausrichtung der interdisziplinären Forschung.
Oder, um mein Eingangsbeispiel (Nationalparkdirektor) zu zitieren: Geisteswissenschaften tragen oft zur Problemlösung oder Entscheidungsfindung bei, indem sie die Frage neu und anders stellen. Diese Arbeit am Begriff und an den Ideen an der Grenze zwischen Wissen und Nicht-Wissen ist aus meiner Sicht unverzichtbar. Daher meine Frage: Wollen wir wirklich nur noch naturwissenschaftliche Kriterien als Wissenschaft gelten lassen, und wollen wir wirklich hochschulpolitische und andere Fragen nach diesen Maßstäben entscheiden? Dann wären teilnehmende Beobachtung, Hermeneutik oder Diskursanalyse und andere (geistes-)wissenschaftliche Methoden natürlich schwer benachteiligt und würden in der Hochschule weiter an den Rand gedrängt. Wir hätten dann eine wissenschaftliche Monokultur mit der Tendenz, Politik durch statistische Aussagen zu untermauern, ohne dabei die eigene Rolle in der Politik zu hinterfragen, wie das heute so oft geschieht. Ob wir das wollen, das zu entscheiden ist meiner Meinung nach eine politische Frage - und keine Frage der Statistik als wissenschaftliche Methode und ihrer korrekten Anwendung.
Herr Heß,
ReplyDeletealso mal wieder ein Einzelfall, den Sie viellleicht als Repräsentanten für eine gängige Praxis verstanden wissen wollen.
Sie verweisen auf das Wort "wahrscheinlich" - ein Wort, dass in der Wissenschaft meist entweder in einem Frequentist-Sinne (Eine Stichprobe ergab als beste Schätzung eine wahrscheinlichkeit von x% (evtl. mit fehlermargin), dass die Aussage zutrifft [es bleibt die Frage, was denn die "Stabilität des Monsuns" sein soll]), oder eine Zusammenfasssung einer (subjektiven) Experteneinschätzung, wie es beim IPCC häufig ist (die entsprechenden Begriffe "likley" etc. sind dort definiert). Es gibt natürlich auch noch den Begriff in der täglichen Sprache, der dann "wahrscheinlich" die persönliche Einschätzung des Sprechers widergibt (so wie ich gerade).
Gibt es ind er Pressemitteilung einen Hinweis auf eine einschlägige Veröfffentlichung, in der die Behauptung belegt wird anhand voon detaillierten Argumenten?
Es könnte sein: gängige Praxis (wie würde man diese feststellen, vielleicht mit einer geeigneten statistischen Analyse?), Einzelfall, der korrekt ein wissenschaftlich erarbeitetes Resultat darstellt, Einzelfall einer schlampigen Verkürzung?
Warum, Herr Heß, fragen Sie mich? Warum sollte ich eine Antwort auf Ihre Frage haben?
Die wissenschaftliche Methode der Statistik dient in der Regel dazu, eine begrenzten Menge an Evidenz dazu zu nutzen abzuschätzen, wie die Verhältnisse in einer Population sind. Diese Abschätzung nimmt gerne die Form einer Prozentzahl an; dann ist diese aber nicht die Statistik, sondern der Weg dorthin. In der öffentlichen Debatte ist dies allerdings anders, wo die angebliche Wissenschaftlichkeit, die der Hinweis auf Statistik beinhalten kann, oft genug als Hinweis auf die Belastbarkkeit der Zahl genommen wird.
Ich denke mir, dass es in den Sozialwissenschaften entsprechende, empirisch unterfütterte Untersuchungen dazu gibt, wie die verschiedenen Konzepte, die dem Wort "Statistik" zugeordnet werden, aussehen, zueinander stehen, und welche Rolle sie im täglichen Kampf um Deutungshohheit und damit Macht spielen.
Werner,
ReplyDeleteich stimme Dir gerne zu - Wissenschaftspolitik sollte nicht eine Resultat der von dir erwähnten wissenschaftlichen "Erfolgsmaße" sein. PoIitik sollte überhaupt nie eine Resultat von Wissenschaft sein, obwohl sie durch Wissenschaft, also auch statistisch belegten Abschätzungen, informiert sein sollte. Ich sehe aber auch nicht die Gefahr, dass dies geschehen würdet.
Bei Bewerbungen auf akademische Positionen werden meine Erfahrung nach nicht mechanisch diese Erfolgsmaße angewandt; man guckt sicher allerdings an, was ein Bewerber in der Vergangenheit geleistet hat, ob er nur heiße Luft produziert hat oder sie einen nachhaltigen Widerhall in der Community gefunden hat. (ok, oft genug ist es auch das Netzwerk, das entscheidend ist). [Es schadet sicher nicht, wenn man verstanden hat, wie Statistik tickt.]
Bei "Bau" des Hamburgischen Exzelllenzentrums für Klimaforschung ist es ja gerade gelungen, Sozialwissenschaften als wesentliche Komponente einzuweben; hier sind die mechanischen Kriterien nicht entscheidend gewesen, sondern die Sinnhaftigkeit, sich dem sozialwissenschaftlichen Subjekt "Klima/forfschung" zu nähern. Das mag in anderen Fällen anders sein, aber es zeigt die Begrenztheit der Möglichkeit, mit Einzelfällen viel mehr als Hypothesen zu konstruieren.Was ja schon eine ganze Menge ist.
Aber es gibt ein anderes Kriterium, nämlich, als Wissenschaft sollte nur gelten, was mit "der" wissenschaftllichen Methode erarbeitet worden ist - d.h. insbesondere, wenn Daten (Beobachtungen) verwendet werden, deren Qualität, Belastbarkeit und Repräsentativität zumindest skizziert werden, wenn alternative Erklärungsmuster diskutiert und miteinander verglichen werden, dasss mögliche Gegenargumente gesammelt und bewertet werden ("Falsifikation" in meinen Worten); wenn versucht wird, die Caveats, die impliziten Annahmen oder Vorurteile explitzit zu machen.
Ich las gerade "Der Fluch der bösen Tat: Das Scheitern des Westens im Orient " von Peter Scholl-Latour. Eine (für mich) kluge Beschreibung der Vorgänge und Hintergründe der Bedingungen im Nahen Osten. Belegt mit vielen Anekdoten und persönlichen Erfahrungen mit vielen Menschen in der Region. Mir scheint das Buch gelungen, aber ich muß dazu sagen, dass es mir erlaubt, mich bestätigt zu sehen. Ist es ein wissenschaftliches Buch, eine wissenschaftliche Analyse? Herr Scholl-Latour beansprucht das nicht. Aus dem, was ich hier las auf dem Blog, schliesse ich, dass mancher sagen würde: Ja, ist es. Klug, viele (unbelegte) Evidenz in Form von Anekdoten, ein stimmiges Weltbild. Helmut Schmidt lobt den Autor als klugen Einordner und Berater. Was er aber nicht tut ist - alternative Erklärungen und Deutungen zu diskutieren, dazustellen, wie er auf Menschen traf, deren Denken und Tun nicht in seine Erklärungen passen; vielmehr verkündet er seine (als solche deklarierte: subjektive) Wahrheit.
In gleichem Sinne ist unsere "Klimafalle" kein wissenschaftlliches Buch, sondern "nur" eine mehr oder minder gut gelungenen Darstellung unserer Wahrnehmungen und Deutungen, ohne dass wir dabei die wissenschaftliche Methode eingesetzt hätten. Ich glaube, dass unser Buch eine wertvolle Bereicherung der Diskussion gewesen ist, aber auch nicht mehr.
Werner, Du schriebst "in Sammelbänden oder dicken Monographien, die natürlich mit keinen Impact Faktor gemessen werden". Im EInzelfall scheint das nicht zu stimmen. Unsere Monographie "Statistical analysis in climate research" steht mit großem Abstands an erster Stelle in meiner Google-Scholar-Liste, ein Kapitel "Misuses of statistical analysis in climate research" aus einem Sammelband an 3ter Stelle.
ReplyDeleteHans,
ReplyDeleteanstatt wieder einmal zu bestimmen, was jetzt richtige Wissenschaft ist und was nicht, wer mitreden darf und wer nicht, finde ich Wissenschafts- und Hochschulpolitik im Hinblick darauf interessant, wie die Gesellschaft anstehende Probleme meistern kann, welche Rolle Wissenschaft dabei spielt und wie sich ihr Selbstverständnis dadurch ändert. Dein immer wieder wiederholtes Insistieren darauf, dass Wissenschaft auf einem festen Set von Regeln beruht und vor jeglichen Eingriffen geschützt werden muss, erinnert mich, um Ravetz / Funtowicz zu zitieren, an die Rolle der Kirche, bevor der Buchdruck erfunden wurde.
Inzwischen ist gar das Internet erfunden worden, und jeder kann verfolgen, wie sich Wissenschaft mit peer- und pal review rumschlägt, wie politische und ökonomische Interessen mitspielen, wie wenig Resultate tatsächlich reproduzierbar sind etc etc. All dies wird ja von der postnormal science immer und immer wiederholt, jüngst in dem schönen Sammelband "The Rightful Place of Science: Science on the Verge" (2016, Benesia, Funtowicz et al). Längst geht es um so interessante Dinge wie extended peer participation, um collaboration, um citizen science, um neue Formen der Problemlösung. Ich finde, dass die Politik Wissenschaft auch in diese Richtung denken und lenken sollte - wie kann sie sich hier sinnvoll positionieren, welches Wissen kann sie beitragen, wie können diese Prozesse organisiert werden.
Da braucht es eben auch teilnehmende Beobachtung, Empathie, soziales know how, Aufheben der Distanz, um zu einer ganz anderen Qualität von Resultaten zu kommen, um Fragen neu zu formulieren und Prozesse in Gang zu setzen, zusammen mit denen, die früher nur die Erforschten waren. Das ist aufregender als Polizei zu spielen und zu bestimmen, was jetzt als Wissenschaft gilt und was nicht. Toleranz und Neugier darauf, wie andere Disziplinen es machen, sind auch in der Wissenschaft eine Tugend, z.B. was Methoden, Theorien und Darstellungsweisen betrifft. Polizisten hingegen braucht man für Plagiatoren, Fälscher und Betrüger.
@Werner Krauss
ReplyDeleteReiners Grundmanns Beispiele zeigen, dass es eben genau nicht genügen kann Politik mit Statistik zu untermauern. Entscheidend ist politisch, dass wir Bürger einen Zugang haben in welches Umfeld die dargestellten Daten eingebunden sind. Dazu braucht es die kritische Begleitung auch durch die Geistes- und die Sozialwissenschaften.
Mein Beispiel oben zeigt, dass es auch für Naturwissenschaftler oder Organisationen die engeren Zugang zu Naturwissenschaftlern haben als es zum Beispiel vielleicht eine Zeitung hat nicht gelingt „naturwissenschaftlich einwandfrei“ zu formulieren. Das liegt schon an der Sprache. Im Übrigen sind sich auch die Statistiker nicht immer einig wie die korrekte Formulierung lauten sollte. Ich plädiere deshalb dafür die beliebte Medienschelte hinter sich zu lassen, dass die Medien oder Politiker die Aussagen schlecht wiedergegeben hätten. Stattdessen finde ich es besser die Interpretation im Kontext zu diskutieren und zu bewerten.
Und wieder ein Einzelbeispiel. Ein Artikel mit der Überschrift:
„Treibhausgase: Forscher ermitteln Chinas Beitrag zur Klimaerwärmung“
In der Zusammenfassung steht:
„Zusammengefasst: China bläst bereits doppelt so viel des klimawärmenden Treibhausgases CO2 in die Luft wie die Nummer zwei der CO2-Rangliste, die USA. Dennoch ist es derzeit nur für ein Zehntel der Klimaerwärmung verantwortlich, weil die Gase anderer Nationen in der Luft nachwirken. Chinas Verantwortung für die Klimaerwärmung reicht aber Jahrzehnte zurück: Mit der Rodung seiner Vegetation für Landwirtschaft und Holzgewinnung hat das Land frühzeitig riesige CO2-Speicher entfernt, wodurch sich wärmende Treibhausgase in der Luft anreicherten.“
Ich bin mir sicher, dass die Forscher das alles statistisch sauber belegt haben:
„In China hielten sich Wärme und Kühlung durch Luftverschmutzung die Waage, berichten die Wissenschaftler um Li Bengang von der Peking University in "Nature".“
„We find that China contributes 10% ± 4% of the current global radiative forcing.“
Interessant für uns Bürger hingegen ist die politische Interpretation des Artikels und der politische Kontext.
„Knowledge of the contribution that individual countries have made to global radiative forcing is important to the implementation of the agreement on “common but differentiated responsibilities” reached by the United Nations Framework Convention on Climate Change.“
Nach wiederholter Lektüre vorangegangener Kommentare glaube ich, es geht gar nicht darum, Nützlichkeit und Notwendigkeit der Sozialwissenschaften nachzuweisen. Worum es eigentlich geht und wie Hochschul- und Wissenschaftspolitik tatsächlich gemacht wird, darin geben uns viel eher die Kommentare von HvStorch einen interessanten Einblick.
ReplyDeleteMan kann den Eindruck gewinnen, dass ihm die methodische und inhaltliche Ausrichtung der Sozialwissenschaften im Hamburger Exzellenzzentrum am Herzen liegt. Seine eigene Disziplinen übergreifende Auslegung davon, was Wissenschaft ist, legt er nicht nur dar, sondern er warnt zugleich vor Abweichungen. Dies macht er, indem er unterstellt, dass mancher hier auf der Klimazwiebel das Buch des Auslandsjournalisten Peter Scholl-Latour für Wissenschaft hält. Damit klar ist, wer das sein könnte, führt er noch unser Buch "die Klimafalle" an, und warnt ausdrücklich davor, dieses mit Wissenschaft zu verwechseln - in einem an mich addressierten Kommentar (und dies nicht zum ersten Mal).
Dass es sich dabei für jeden ersichtlich um ein Sachbuch handelt, das bewusst auf die Standards einer akademischen Arbeit verzichtet und diesen Anspruch auch nirgendwo erhebt, genügt ihm nicht. Es geht vermutlich vielmehr darum, sich im Nachhinein von dem (innovativen) methodischen und theoretischen Ansatz (Science studies, Diskursanalyse, Narration) zu distanzieren, den wir in der Klimafalle mit leichter Hand einführen und durchgehend anwenden - das Buch ist ja alles andere als eine bloße Meinungsäußerung, wie jeder feststellen kann, der es gelesen hat. Und genau diese Methoden sind es, die definitiv anders als naturwissenschaftliche Methoden sind und so von der derzeitigen Definition von HvStorch, was Wissenschaft sein soll, abweichen. Da spielt es auch keine Rolle mehr, dass die Klimafalle, obwohl Sachbuch und nicht Fachbuch, auch in wissenschaftlichen Rezensionen für den interdisziplinären Brückenbau zwischen Geistes- und Naturwissenschaft gelobt wurde.
Das ehrt mich nun natürlich auf gewisse Weise, dass mein Einfluss auf Studenten so groß eingeschätzt wird, dass mein Ruf durch Unterstellungen (Peter Scholl Latour, subjektive Wahrheit etc) im Nachhinein wieder unterminiert werden muss. Ich sehe darin ein interessantes Beispiel dafür, mit welchen Mitteln die Durchsetzung bestimmter methodischer Ausrichtungen und binnenpolitischer Machtansprüche in der Forschung durchgesetzt werden. Aber das ist natürlich meine subjektive Wahrheit, und das müsste alles erstmal statisch alles belegt werden -:)
@Werner Krauss
ReplyDeleteIn der öffentlichen politischen Debatte werden Informationen und Argumente aus unterschiedlichsten Quellen benutzt und in den Ring der Meinungen geworfen.
Die Quellen des politischen Gegners werden diskreditiert und die Quellen der eigenen Partei werden mit einem objektiven Heiligenschein dargestellt.
Für den Bürger der sich in dieser politischen Umgebung eine Meinung bildet ist es deshalb meines Erachtens irrelevant und nicht ohne großen Aufwand nachprüfbar, ob die Quelle verlässlich und objektiv ist oder nicht. Dazu kommt, dass eine verlässliche objektive Quelle immer noch irren kann.
Deshalb braucht es meines Erachtens genau die geisteswissenschaftliche Methoden (Science studies, Diskursanalyse, Narration) die sie in dem Buch „Die Klimafalle“ benutzen.
Auch für Foren denke ich ist es unproduktiv in die Diskussion einzusteigen, welche Quelle oder Methode nun wissenschaftlich, objektiv ist oder nicht. Entscheidend sind die Argumente und der evolutionäre Fortschritt der eigenen subjektiven Erkenntnis.
Ich denke es ist auch so, dass in der Untersuchung komplexer Systeme die Überraschung, das ist zum Beispiel der Fehler 2. Art um es mal statistisch auszudrücken, unmittelbar hinter der nächsten Ecke, nach dem nächsten Experiment lauert. Das bedeutet so scheint mir, dass sich das „Wissen“ evolutionär und „chaotisch“ vermehrt. Die „Konsensus“ Debatte sowie die „Denier“ Diskussion scheint mir deshalb ein Relikt aus dem reduktionistischen Ansatz des 20. Jahrhunderts zu sein. Um in komplexen Systemen Erkenntnisse zu erarbeiten ist meines Erachtens Dissens wichtiger als Konsens.
ich finde Reiner Grundmanns Beispiele über Statistikmissbrauch irgendwie wenig hilfreich hier. Ich denke, jedem ist hier klar, dass es überall gute und schlechte Arbeiten gibt und auch Missbrauch von Ergebnissen aus irgendwelchen Gründen.
ReplyDeleteIch finde auch Günters Aussage, dass eine Wissenschaftsrichtung eine andere begleiten sollte, nicht 100%ig ausreichend. Begleiten ist nicht gegenseitig befruchten. Begleiten impliziert für mich, dass jemand führt und jemand anders hilfreiches (wichtiges) Beiwerk ist, aber eben Beiwerk ist. Vielmehr sollte jede Forschungsrichtung eben ein "Problem" aus ihrer Sicht von sich aus bearbeiten und so kann jede Richtung von einer anderen profitieren.
@Günter Heß
"Denier" finde ich nicht als Dissenz. Denier sind unkritische, ideologisch geleitete Menschen, die meist nicht mal eine wissenschaftliche Meinung haben. KEIN Denier hinterfragt die EIGENE Meinung. Andere Ideen zu hinterfragen ist einfach, sich selbst ist ein ganz anderes Kaliber. Und da scheitern Denier und "Skeptiker" grandios. Ist ihnen nie aufgefallen oder doch? Und Sie behaupten nun, Denier wären irgendwie wichtig? Sie sind eben da. Kein Problem, aber wichtig, nee.
@Werner Krauss
ich finde ihre Meinung sehr krass und interessant. Meinen Sie wirklich, dass Hans von Storch das so absolut sieht?
Witzig ist die Definition in der Wikipedia, was Wissenschaft ist
Die Wissenschaft ist ein System der Erkenntnisse über die wesentlichen Eigenschaften, kausalen Zusammenhänge und Gesetzmäßigkeiten der Natur, Technik, Gesellschaft und des Denkens, das in Form von Begriffen, Kategorien, Maßbestimmungen, Gesetzen, Theorien und Hypothesen fixiert wird. In der Wissenschaft überleben nur Theorien (im Gegensatz zur Philosophie), die sich an der Erfahrung bewähren.
Und gleichzeitig nun die Philosophie
Von anderen Wissenschaften unterscheidet sie sich dadurch, dass sie sich oft nicht auf ein spezielles Gebiet oder eine bestimmte Methodologie begrenzt, sondern durch die Art ihrer Fragestellungen und ihre besondere Herangehensweise an ihre vielfältigen Gegenstandsbereiche charakterisiert ist.
(beides Zitate aus der Wikipedia)
Somit ist die Philosophie laut Wikipedia eine Wissenschaft und gleichzeitig nicht ;) Die Definitionen von Wissenschaft und deren Eigenschaften sind wohl nicht so leicht.
WAIIMHN
@WAIIHMN
ReplyDeleteWie sie das empfinden sei ihnen unbenommen."
Wenn ich das wollte könnte ich aus den Aussagen auf beiden Seiten der politischen und wissenschaftlichen Debatte vermuten, dass dem ein oder anderen die Fähigkeit zur Selbstkritik abgeht. Auf der anderen Seite versuche ich nur die Argumente im Jetzt in einer Debatte zu sehen und da ist es zum Beispiel irrelevant, welche Fähigkeiten der Diskussionspartner hat oder nicht.
Für einen Wissenschaftler in einer wissenschaftlichen Debatte sind "Denier" und "Skeptiker" ein Ansporn, für Politiker in einer politischen Debatte ein Ärgernis deshalb werden sie dort kategorisiert und ausgegrenzt.
Insofern haben sie gerade wenn man komplexe Systeme untersucht in der wissenschaftlichen Debatte eine sinnvolle Funktion, weil sie alternative Hypothesen formulieren.
Eine ähnlich wichtige Funktion haben sie in der politischen Debatte, weil sie dort für einen lebhaften Diskurs sorgen.
Im Grunde ist ja ein „Denier“ nur jemand der ein anderes eben extremes „Wahrheitskriterium“ oder „Glaubwürdigkeitskriterium“ benutzt. Er ist insofern sozusagen der Gegenpol zum Gläubigen. In der Klimaforschung wird meiner Beobachtung nach das Glaubwürdigkeitskriterium üblicherweise bei 2-Sigma angesetzt. Wenn also jemand das Glaubwürdigkeitskriterium der Teilchenphysik ansetzt, 5-Sigma, dann wird er in der Klimadebatte als „Leugner“ oder „Skeptiker“ bezeichnet meiner Beobachtung nach.
Ein gesetztes Kriterium durch eine soziale Gruppe führt demnach dazu, dass andere Menschen kategorisiert werden. Für einen Naturwissenschaftler ist das völlig nutzlos. Für einen Ethnologen hingegen, könnte das ein interessanter Untersuchungsgegenstand sein, denn das Glaubwürdigkeitskriterium ist ja eine mögliche soziale Konstruktion.
Zurück zum Artikel. Auch die Präferenz für naturwissenschaftliche Methoden in allen Wissenschaftsbereichen die Werner Krauss anspricht ist eine soziale Konstruktion. Dies zu hinterfragen erfordert ja genau die Fähigkeit zur Selbstkritik die sie anmahnen.
Wenn ich also Herrn Krauss richtig verstehe, dann gibt es interessante Argumente dafür diese soziale Konstruktion für das 21. Jahrhundert in Frage zu stellen.
Ich kann das für komplexe Systeme gut nachvollziehen. Meines Erachtens wird da zum Beispiel der Fehler 2. Art wichtiger als für einfache Systeme. Damit wird klar, dass eine Methodendiskussion die Herr Krauss anstößt sehr gesund und notwendig ist.
In der FAZ vom 27.4. ein Artikel zum Thema: "Regime der Indikatoren. Der Impact Factor spaltet die Sozialwissenschaften". Der Autor Gerald Wagner zitiert darin vor allem aus "Soziale Welt" (66/2015), die dem Thema eine Ausgabe gewidmet hat.
ReplyDelete"...wird den bibliometrischen Verfahren vorgeworfen, sie ersetzten die inhaltliche Beurteilung einer Publikation durch Quantitität, eben die Zitationshäufigkeit des Publikationsortes. Je höher der daraus entstehende "Impact Factor" einer Zeitschrift, desto bedeutender auch die darin akzeptierte Publikation. Die zugrundeliegende Unterstellung, dass jedes Zitieren eines Textes ein Ausdruck fachlicher Wertschätzung sein müsse, mag bestenfalls für die Naturwissenschaften mit ihrem streng kumulativen Verständnis von Erkenntnisfortschritt gelten. In den Sozial- und Geisteswissenschaften hingegen könne ein Zitat eine ganze Fülle von Haltungen ausdrücken, die von schärfster Distanzierung bis hin zum enthusiastischen Bekenntnis reichen. Nichts davon lasse sich qualitativ erfassen, Indizes seien daher für die spezifische Zitationskultur der Humanwissenschaften unbrauchbar."
Die gegenwärtige Praxis wirkt auf die Disziplinen selbst zurück:
"Das 'Indikatorenregime' habe eine fatale Spaltung des Faches in zwei Teile verursacht. Nennen wir sie die positivistisch-empirische Datensoziologie versus die kulturalistische Inhaltssoziologie."
Die z.B. in der Klimaforschung bevorzugten Sozialwissenschaften sind meist auf solche empirischen Erhebungen spezialisiert, die eine hohe Vergleichbarkeit garantieren, Zitierfähigkeit im naturwiss. Sinne erlauben und sich einer gesellschaftstheoretischen Zuspitzung enthalten, also Fragen zur Sozialstruktur, die empirisch erfasst und statistisch berechnet werden können:
"Es kommt nicht viel dabei heraus, dieses Wenige aber wird in geradezu homöopathischen Dosen publiziert, was die Publikationslisten in den dominierenden Fachzeitschriften anschwellen lässt. Aber es ist eine Dominanz ohne Theorie, da es nahezu unmöglich geworden sei, theoretisch ambitionierte Beiträge in diesen Journalen noch unterzubringen."
Auf der anderen Seite verkümmert die inhaltliche Soziologie, so der Autor, zum bloßen Steckenpferdreiten.
Der Autor sieht eine mögliche Lösung in einer Strategie, die ich oben als "postnormal" skizziert habe: "Radikaler dagegen ist (die) Idee, am heiligen Gral der Zitationsindexe selbst Hand anzulegen, also am Prinzip der anonymen Begutachtung eingereichter Manuskripte". Im Zentrum steht dabei die extended peer review, die Teil der Veröffentlichungspraxis wird und so einen enormen diskursiven Gewinn bedeuten würde; zum anderen würde dies, so der Autor süffisant, die Publikationswut eindämmen.
Hoffentlich erscheint der Beitrag noch online, sehr lesenwert.
Nachtrag: in seinen von mir exzerpierten Ausführungen bezieht sich der faz Autor übrigens meist auf der Lektüre des Artikels von Richard Münch: "Alle Macht den Zahlen! Zur Soziologie des Zitationsindexes." Hier der link zu der Zeitschrift:
ReplyDeletehttp://www.nomos-elibrary.de/10.5771/0038-6073-2015-2-225/der-impact-faktor-war-gestern-jahrgang-66-2015-heft-2?page=1
(Der Impact Faktor von "Soziale Welt" liegt derzeit übrigens bei 0,48, wie man hier ersehen kann:
https://www.researchgate.net/journal/0038-6073_Soziale_Welt_Zeitschrift_fuer_Sozialwissenschaftliche_Forschung_und_Praxis)
@Werner Krauss
ReplyDeletesie zitieren:
„Die zugrundeliegende Unterstellung, dass jedes Zitieren eines Textes ein Ausdruck fachlicher Wertschätzung sein müsse, mag bestenfalls für die Naturwissenschaften mit ihrem streng kumulativen Verständnis von Erkenntnisfortschritt gelten.“
So ein Index ist ja weder eine naturwissenschaftliche Beobachtung, noch ein naturwissenschaftlicher Beleg und auch kein naturwissenschaftliches Argument.
Insofern spielt so ein Index für das naturwissenschaftliche Arbeiten keine Rolle. Für was man so einen Index also braucht erschließt sich mir nicht.
Eine besondere Wertschätzung haben Naturwissenschaftler für Träger von Hochindexwerten auch nicht vermute ich, da sie eher das einzelne Argument und die wissenschaftliche Arbeit anschauen.
Sollte der Index seine Anwendung finden beim Besetzen von Stellen wird oder ist er vermutlich für die Karriereplanung wichtig. Dann hat er meines Erachtens eine gute Chance zur „self fulfilling prophesy” zu werden. Das heißt um Karriere zu machen, müsste man daran arbeiten diesen Index nach oben zu bringen.
Das ist dann sicher ein interessantes sozialwissenschaftliches Studienobjekt zu welchen Wirkungen so ein Index in einer sozialen Gruppe führt die um eine begrenzte Anzahl von Stellen konkurriert. Als die Engländer Kobras in Indien reduzieren wollten haben sie eine Kopfprämie ausgelobt. Die Inder fingen dann an Schlangen zu züchten.
@Werner Krauss
ReplyDeleteIch vermute dass die Zahl der Publikationen ansteigt, weil die Zahl derjenigen steigt die veröffentlichen und zwar hyperexponentiell wie die Erdbevölkerung.
Peer-review ist ein löcheriger Prozess und das ist auch gut so. Man sollte sich davon lösen, dass in wissenschaflichen Zeitschriften nur Richtiges zu stehen hat. Stattdessen muss es klar sein, dass man alles was man in wissenschaflichen Zeitschriften liest selbst kritisch bewerten muss. Peer review sollte darauf achten, dass die Schlussfolgerungen und Experimente nachvollziehbar beschrieben sind.
Open access und Diskussionsforen sind hingegen eine tolle Sache um darüber zu diskutieren und die Aussagen zu bewerten.
Qualitätskontrolle am Ende eines Prozesses ist immer aufwendig und teuer und führt in komplexen Systemen auch gerne mal zu Overkill wenn die Bewertung mit subjektiven Kriterien erfolgt. Qualität muss man schon am Anfang des Prozesses erzeugen und das geht vor allem in der Ausbildung. Mit dem Schlupf sollte man entspannt umgehen. Ob ein Paper als gut oder schlecht bewertet wird ist eben auch subjektiv. Aber Lernen und Fortschritt ergibt sich auch aus schlechten Papern und Fehlern.
Interessant man kann auch den "publication bias" mit Statistik untersuchen:
ReplyDelete"Publication Bias in Measuring Anthropogenic Climate Change"
https://mpra.ub.uni-muenchen.de/64455/1/MPRA_paper_64455.pdf
und auf naturwissenschaftliche Größen anwenden:
"If the simple mean reflects climate scientists’ impression of the magnitude of climate sensitivity, that impression exaggerates the true climate sensitivity two times."
Es wäre interessant, ob ein Zitationsindex oder "peer review" oder "extended peer review" den "publication bias" verstärken bzw. vermindern können.
"Rationalizing the Unreasonable: there are no good academics in the EU" - ein Bericht von Jan Blommaert darüber, was es bedeutet, dass die Qualität von Instituten und ihren Wissenschaftlern nach Anzahl der eingeworbenen Drittmittel berechnet wird. Er erzählt von einem EU Horizon 2020 Projekt. Von 149 eingegangenen Bewerbungen werden 2 (!) ausgewählt - die Anzahl 2 ist von vorneherein festgelegt:
ReplyDeleteTo sum up: if the number of grants to be awarded is established before the peer-review process, this kind of “competitive” benchmark funding is not competitive at all, and a benchmark for nothing at all – least of all for academic quality. If, however, results in this weird game are maintained as serious and consequential criteria for assessing academic quality, then the conclusion is that there are no good academics in Europe – 99% of them will fail to get ratified as good enough. And these 99% will have to spend significant amounts of taxpayers’ money to eventually prove – what?
Eigentlich erstaunlich, dass eine Gesellschaft sich eine solche Wissenschaft leistet. Es lohnt sich schon, Wissenschaft einaml als eine Praxis anzuschauen und nicht immer nur über die hohen Ideale zu philosophieren, die Wissenschaft angeblich verkörpert:
https://alternative-democracy-research.org/2015/06/10/rationalizing-the-unreasonable-there-are-no-good-academics-in-the-eu/
@Werner Krauss
ReplyDeleteIch würde es anders formulieren. Die Art und Weise wie die Fördermittel verteilt werden schafft sich eine Wissenschaft die exzellent darin ist diese Gelder zu beantragen. Das ist so etwas wie eine wissenschaftliche Planwirtschaft. Der beste Lobbyist, Netzwerker und Beantrager bekommt vermutlich die meisten Fördermittel, vielleicht nicht unbedingt der Beste. Auf der anderen Seite hatten diejenigen Arbeitsgruppen die ich für gut hielt nie Probleme Fördermittel zu bekommen.
Auf der anderen Seite fand ich es nie so besonders aufwändig und schwer die Anträge zu schreiben, weder für die EU noch für das BMBF. Der Erste Antrag fällt am schwersten und die EU fordert mehr Formalismus als das BMBF.
Als derjenige der den Antrag schreiben musste, hätte ich mir manchmal gewünscht es nicht tun zu müssen, weil es einfach langweilig war. Als Steuerzahler war ich aber immer froh, dass Transparenz eingefordert wird und auch kontrolliert wird, ob die Mittel für den gedachten Zweck ausgegeben werden.
Meine Meinung als Steuerzahler ist es die Fördergelder regelmäßig per Losverfahren an die Lehrstühle zu verteilen. Das spart den gesamten Apparat und wäre vermutlich genauso effizient.
Dan Sarewitz has a comment in Nature, pointing out that publishing more and more is not good for science. Referring to the work of De Solla Price in the 1960s who stated an exponential growth in publications, Sarewitz thinks, contrary to university administrators, more is not better:
ReplyDelete'In 1963, the physicist and historian of science Derek de Solla Price looked at growth trends in the research enterprise and saw the threat of“scientific doomsday”. The number of scientists and publications had been growing exponentially for 250 years, and Price realized that the trend was unsustainable. Within a couple of generations, he said, it would lead to a world in which “we should have two scientists for every man, woman, child, and dog in the population”. Price was also an elitist who believed that quality could not be maintained amid such growth. He showed that scientific eminence was concentrated in a very small percentage of researchers, and that the number of leading scientists would therefore grow much more slowly than the number of merely good ones, and that would yield “an even greater preponderance of manpower able to write scientific papers, but not able to write distinguished ones”.
The quality problem has reared its head in ways that Price could not have anticipated. Mainstream scientific leaders increasingly accept that large bodies of published research are unreliable. But what seems to have escaped general notice is a destructive feedback between the production of poor-quality science, the responsibility to cite previous work and the compulsion to publish.'
Examples of low quality work are cancer research: 'The quality problem has been widely recognized in cancer science, in which many cell lines used for research turn out to be contaminated. For example, a breast-cancer cell line used in more than 1,000 published studies actually turned out to have been a melanoma cell line. The average biomedical research paper gets cited between 10 and 20 times in 5 years, and as many as one-third of all cell lines used in research are thought to be contaminated, so the arithmetic is easy enough to do: by one estimate, 10,000 published papers a year cite work based on contaminated cancer cell lines. Metastasis has spread to the cancer literature.'
But this is not the only area which is affected: 'Similar negative feedbacks occur in other areas of research. ... That problem is likely to be worse in policy-relevant fields such as nutrition, education, epidemiology and economics, in which the science is often uncertain and the societal stakes can be high. The never-ending debates about the health effects of dietary salt, or how to structure foreign aid, or measure ecosystem services, are typical of areas in which copious peer-reviewed support can be found for whatever position one wants to take — a condition that then justifies calls for still more research.'
Sarewitz draws the conclusion that researchers should publish less, but higher quality work.
http://www.nature.com/news/the-pressure-to-publish-pushes-down-quality-1.19887?WT.mc_id=TWT_NatureNews
Man könnte diesen Thread endlos fortführen mit immer neuen Klagen darüber, das mit dem derzeitigen Belohnungs- und Vergleichssystem in der Wissenschaft was gewaltig schief läuft. Heute ein von Jeroen van der Sluijs und Silvio Funtowicz vertwitterter link zu einem Artikel, in dem vor 30 Jahren die interessante Frage an einen Immunforscher gestellt wurde, ob eigentlich zwei mit Aids infizierte Partner safe sex machen sollten. Der Forscher muss trotz der Flut von Publikationen bekennen, dass er diese Frage auch heute nicht beantworten kann. Die Forscher hatten in disen 30 Jahren wichtigeres zu tun, sie mussten ihren Impact Faktor erhöhen, um ihre Relevanz nachzuweisen:
ReplyDeleteFast forward 30 years. Biomedical science has grown exponentially. Based on past successes in understanding diseases and developing cures, billions of taxpayers’ money flow into the biomedical scientific enterprise worldwide each year. The numbers of scientists and scientific papers have increased accordingly. Calculations differ, but over 1.5 million peer-reviewed scientific papers are published each year.
This tsunami of papers would suggest a vastly expanding reservoir of knowledge with enormous societal impact. Unfortunately, this is not the case. Many papers are never cited and probably never read. Even worse, many supposedly high-quality papers in the life sciences, describing breakthroughs or possible therapeutic targets, cannot be reproduced.
Why then, do academics churn out all these papers? In my view, the large size of the scientific community combined with increased calls for accountability, have paved the way for quantitative performance assessment, especially in the biomedical field. Assessing ‘scientific quality’ has been reduced to bean counting. Scientists are judged by the number of papers they publish and by the impact factors of the journals these papers are published in.
https://www.theguardian.com/science/political-science/2016/may/12/to-confront-21st-century-challenges-science-needs-to-rethink-its-reward-system?CMP=twt_a-science_b-gdnscience
Ich möchte zum Thema zwei Podcasts von SWR 2 Wissen verlinken:
ReplyDeleteeinmal zum Thema Qualtität der Wissenschaft und die Menge der Publikationen: www.swr.de/swr2/programm/sendungen/wissen/publizieren-um-jeden-preis/-/id=660374/did=17147812/nid=660374/1a3iyv1/index.html
Publizieren um jeden Preis. Hier ist auch ein sehr interessanter Satz drin: jeder erkannt das Problem an, aber keiner spricht wirklich öffentlich darüber, da das Probleme bei der Förderung, Drittmittel geben könnte. Man möchte das Problem der Inflation von (teils schlechteren oder gar falschen) Publikationen eindämmen, aber möglichst intern und ohne großes Aufsehen.
Ich denke, das Problem ist wirklich allgemein anerkannt, aber wie aufbrechen? Ich finde das schwierig, man muss sehr viel ändern.
Und dann einen Beitrag, den ich sehr gut fand und mich nun zum Lesen von Thomas S. Kuhn verführen wird:
http://www.swr.de/swr2/programm/sendungen/wissen/thomas-s-kuhn-struktur-wissenschaftlicher-revolutionen/-/id=660374/did=17211854/nid=660374/108pjhn/index.html
Beste Grüße,
WAIIMHN
Vielen Dank, WAIIMHN, sehr interessante links
ReplyDeleteGestern in der FAZ ein Artikel von Jochen Hörisch, Prof. für neuere germanistik und Medienanalyse, Uni Mannheim: "Privat ein Laster, öfffentlich eine Tugend":
"Die öffentliche Kommunikation über die Exzellenzinitiative prägt ein irritierender Doppelstandard. Ein Protestschreiben von Wissenschaftlern spricht aus, was viele denken."
Der Tenor des Artikels ist: Auf der einen Seite lästern viele an der Uni über den Drittmittelterror, die Evaluationen, die Zeitverschwendung, die wir hier ja schon ausführlich beschrieben haben. Auf der anderen Seite steht die euphorische Antrags-, Verlautbarungs- und Gutachterprosa, in der alles über den grünen Klee gelobt wir: die Doppelmoral, die durch die Exzelleninitiative gefördert wird, so der Autor.
Der Aufruf "Für gute Forschung und Lehre - Argumente gegen die Exzellenzinitiative" findet offensichtlich große Resonanz, wird allerdings nicht von allen unterschrieben:
"Um nur ein (...) Szenario zu benennen: Eine frisch berufene Juniorprofessorin, deren Vertrag laut Berufungsvereinbarungen nur dann entfristet wird, wenn es ihr gelingt, erhebliche Drittmittel einzuwerben wird, was wenig überraschend ist, zögern, einen solchen Aufruf zu unterschreiben." Stattdessen wird sie das Buch nicht schreiben, das sie eigentlich schreiben wollte, weniger forschen, dafür mehr Zeit in Sitzungen verbringen, um Projekte auf die Beine zu stellen etc. So sieht das an den Universitäten aus, derzeit. Dass der Großteil der Forscherinnen an der Uni auf (Drittmittel finanzierten) Zeitverträgen sitzt, verbessert die Lage keinesfalls, sondern fördert den Opportunismus.
...und hier der in #74 zitierte Artikel auch online:
ReplyDeletehttp://www.faz.net/aktuell/feuilleton/forschung-und-lehre/wissenschaftler-gegen-exzellenzinitiative-14249500.html
Es gibt Gegenbewegungen zur "Vermessung der Welt". Mein Kollege Ben Carrington an der UT in Austin bringt die "slow ethnography" in Stellung gegen die notorischen Polls und statistischen Erhebungen, die immer mehr gründliche Feldforschung zur Meinungsbildung und Kulturwandel ersetzen:
ReplyDeleteIn this talk I make a methodological and political argument for “slow ethnography”. If the ability to trace meaning-making only emerges after countless interactions over time, then the longer the time spent in the field, the deeper the immersion, the better chance we have of mapping cultural change. Just as the slow food movement issues a challenge not just to the model of consuming fast food but to the underlying production processes that lie beneath, so “slow ethnography” might similarly provide a necessary corrective to the McDonaldiziation of the neo-liberal academy and the concomitant bureaucratic evaluation culture that pose a direct threat to the ability of universities to remain spaces of critical enquiry. This talk’s broader goal, then, is to claim slow ethnography (and related, the idea of a slow sociology) as not just central to the ethnographic enterprise, but as a necessary political move in defending academia as space able to produce deeply embedded forms of (slow) knowledge that challenge the compressed temporal demands of (fast) capitalism.
http://www.sociology.leeds.ac.uk/events/2016/ethnography
Interessantes zu statistischen Analysen in der klimawissenschaftlichen Vermessung der Welt schreiben Fyfe et al. hier:
ReplyDeletehttp://www.climate-lab-book.ac.uk/2016/slowdown-discussion/
„Whether the recent slowdown is statistically significant or not depends on the details of the analysis: the data set, the analysis method, the start and end points, the baseline period used for comparison, and the stipulated significance threshold.“
Später schließen sie ebda:
„These results illustrate the dangers of relying solely on a statistical test to tell us whether there is, or is not a physically-based change in warming rates..... Whether the slowdown was or was not statistically significant is, at least in our opinion, of relatively minor importance.“
Here is an interesting take on the topic
ReplyDeletehttp://www.nytimes.com/2016/07/04/opinion/there-is-no-scientific-method.html?_r=1
It starts like this:
"In 1970, I had the chance to attend a lecture by Stephen Spender. He described in some detail the stages through which he would pass in crafting a poem. He jotted on a blackboard some lines of verse from successive drafts of one of his poems, asking whether these lines (a) expressed what he wanted to express and (b) did so in the desired form. He then amended the lines to bring them closer either to the meaning he wanted to communicate or to the poetic form of that communication.
I was immediately struck by the similarities between his editing process and those associated with scientific investigation and began to wonder whether there was such a thing as a scientific method. Maybe the method on which science relies exists wherever we find systematic investigation. In saying there is no scientific method, what I mean, more precisely, is that there is no distinctly scientific method."
It also has this paragraph, towards the end:
ReplyDelete"If scientific method is only one form of a general method employed in all human inquiry, how is it that the results of science are more reliable than what is provided by these other forms? I think the answer is that science deals with highly quantified variables and that it is the precision of its results that supplies this reliability. But make no mistake: Quantified precision is not to be confused with a superior method of thinking."