Benutzer:Samohtdersaibot
Erkenntnisgewinn in der Physik
Interessant fand ich die Vorlesung des Herrn Kusch deshalb, da ich im vorhergehenden Semester eine Vorlesung von Herrn Pietschmann besucht habe. Pietschmann ist ein bekannter Teilchenphysiker, der auch in philosophischen Arbeitsbereichen tätig ist. So war seine Vorlesung nach seinem Buch "Phänomenologie der Naturwissenschaft" betitelt, welche eine Beschreibung wissenschaftstheoretischer und allgemein philosophischer Probleme der Physik zu beschreiben versuchte, sowie den hierarchisch soziologischen Aspekt in der Naturwissenschaft gut herausarbeiten konnte.
Sehr bemerkenswert war, dass er es geschafft hat meine Vorstellung von Wissenschaft als absolute Wissenschaft auf den Kopf zu stellen. Ich werde ein paar Überlegungen aus dem Buch "Phänomenologie der Naturwissenschaft" von Herbert Pietschmann dazu benutzen, meine eigenen Überlegungen zu stützen um Fragen zu erarbeiten, die hier absichtlich nicht beantwortet werden.
1. Abkopplung von der Wirklichkeit
Nun ich hatte oft das Gefühl oder den Eindruck die naturwissenschaftlichen Erkenntnisse sind so ziemlich absolut, da sie ja den Begriffen Überprüfbarkeit, Reproduzierbarkeit, Quantifizierbarkeit, usw.gerecht werden. Diese sich zur Methode der Wissenschaft zusammenfügenden Begriffe stellten sich für mich immer als aüßerst gewiss da. Sowohl aufgrund der technischen Verwertbarkeit als auch wegen der werkzeughaften Benutzung des besten momentan erhältlichen Systems der aristotelischen Logik, die Mathematik. Ich hab mir immer gedacht, wenn ein Körper Beschleunigung erfährt IST da irgendwo eine Kraft, die dies verursacht. Nun ist dies vielleicht richtig, aber nicht zwingend wahr. (Richtig im logischen Sinn; Wahr im allgemeinen Sinn der Erkenntnis)Der Trick der Physik besteht nämlich darin auf die Wirklichkeit kurzerhand zu verzichten. Sie baut sich vielmehr aus abgekoppelten Erfahrungen bzw. Experimenten Modelle, welche günstig sind um ein einzelnes Phänomen so wie es scheint mithilfe der Mathematik zu beschreiben. Das Modell muss einerseits mathematisch richtig (Theorie) und weiters durch wiederholte Experimente bestätigt werden, also reproduzierbar sein. Am besten bzw. gesichersten gelten jene Modelle, welche sich auf einfache wenige Prinzipien zurückführen lassen. Meist ist auch die mathematische Beschreibung eher einfach zB E=MC^2 ist einer der experimentell gesichertsten Theorien. Ob es Energie gibt oder die Lichtgeschwindigkeit, ist hierbei nebensächlich.(Im Grunde genommen ist jede physikalische Einheit reine Konvention, oder besser gesagt ihre Größen) Diese Begriffe dienen einzig dazu etwas zu beschreiben, was anders wohl nicht verständlich gemacht werden kann. Reine Konstruktion sozusagen. Sowohl die Idee des Modells als auch die Mathematik selbst kann man wohl als Produkt des Geistes bezeichnen, weshalb ich interessant finde, dass Theorien trotzdem oft in technischer Verwertbarkeit münden. Dadurch ist für mich gesichert, dass zumindest ein Fünkchen DER WAHRHEIT hinter den Überlegungen stecken muss. Schließlich ist das Motto ja nicht "Anything goes!" oder doch?
2. Das Experiment als absoluter Beweis?
Oft wird argumentiert, dass die wissenschaftlichen Erkenntnisse unheimlich gesichert sind, da sie ja reproduzierbar sind. Ich finde es ist wichtig zu erwähnen, dass dies zwar der Fall ist, ein Ergebnis jedoch erst anerkannt wird, wenn sowohl der systematische Fehler als auch der absolute Fehler angegeben sind. Das heißt die experimentellen Ergebnisse sind dann als richtig zu deuten, wenn sie sich innerhalb eines beschränkten Bereichs befinden. Hier ist vorallem dem systematischen Fehler besondere Aufmerksamkeit zu schenken. Dieser gibt an, inwieweit das zu untersuchende System von unbekannten Faktoren beeinflusst wurde. Nun finde ich dieser systematische Fehler wirft ungemein vielschichtige Fragen auf. Wie komme ich nämlich dazu abzuschätzen, wie groß dieser sein mag? Als kurzen Einwurf möchte ich eine Anekdote des Herrn Pietschmann aufgreifen. Er hat von einem Experiment im Bereich der Teilchenphysik erzählt, bei dem der systematische Fehler so klein angegeben war, dass das Ergebnis der Experimente von der Physikergemeinschaft nicht anerkannt worden sind. Sie waren den führenden Physikern "zu schön um wahr zu sein". Trotz der Tatsache, dass die Experimente die zu untersuchende Theorie gut und genau bestätigt hatte, war man der Meinung, dass hier etwas gemessen wurde, das nicht in die Modellwelt der Physik aufgenommen werden sollte, da es sich um einen (Denk)Fehler oder eine Fehlinterpretation gehandelt haben muss.
3. Die Macht der Gemeinschaft
Nun ist auch die Physikergemeinschaft eine hierarchisch aufgebaute Gesellschaft. Die Nobelpreisträger geben auf Kongressen ihren Senf zu aktuellen Forschungsgebieten bzw. Theorien, besprechen und entscheiden dann, ob diese es würdig sind oder es sich lohnt auf diesem oder jenem Gebiet weiter zu forschen. Dort spielt es eine sehr große Rolle in nicht allzu langer Zeit von etwas zu überzeugen, von dem man will, dass es zum Forschungsgebiet wird. Sagt man beispielsweise ein Teilchen in einer Theorie voraus und trägt diese überzeugend der Gemeinschaft vor, dann gilt es eigentlich als gesichert, dass dieses dann auch gefunden wird. Nicht nur weil dann die nötigen Geldmittel zur Verfügung stehen (was ja im Bereich der Teilchenphysik durchaus eine Rolle spielt; siehe CERN), sondern weil man will, dass es gefunden wird. Es werden sich dann irrsinnig viele Wissenschaftler daran zu machen die Experimente und Modifikationen der Theorien so zu gestalten, dass zum Schluss ein neues Teilchen rauskommt. Man hat im Grunde mathematisch ein neues Teilchen erfunden, welches dann auch in die "Wirklichkeit" aufgenommen werden wird. Schön. Wir müssen also nur wollen.
Meine weiteren Beiträge im Wiki bislang als samohtdersaibot und Thomas Tobias:
[1]
[2]
[3]
[4]