Quantenphysik und Indeterminismus

Aus Philo Wiki
Version vom 22. Februar 2007, 16:35 Uhr von Esra (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu:Navigation, Suche

Einführung in die Quantenphysik und Versuch einer Transzendentalphilosophischen Deutung

„Ich dachte mir nicht viel dabei“ (Max Planck)


„Wie auf dem tobenden Meere,
das, nach allen Seiten unbegrenzt,
heulend Wellenberge erhebt und senkt,
auf einem Kahn ein Schiffer sitzt,
dem schwachen Fahrzeug vertrauend;
so sitzt, mitten in einer Welt von Qualen,
ruhig der einzelne Mensch,
gestützt und vertrauend auf das
‚principium individuationis‘.“(Schopenhauer)



Die Anfänge

Die uns bekannten Anfänge der Atomtheorie, liegen weit zurück bei den Griechen und zwar bei den Naturphilosophen Leukipp und Demokrit welche bereits im 5. Jahrhundert vor Chr. ein Postulat des unteilbar Kleinsten formulierten das sie von der Beobachtung des Sonnenstaubs herleiteten. Bekannt sind nur einige Fragmente die eher enigmatischen Charakter aufweisen, aber dafür die Zügel der Reflexion darüber sehr locker lassen. Deshalb hier einige bereits[kommentierte] Fragmente des Demokrit: Nachdem Demokrit sein Misstrauen gegen die Sinneswahrnehmungen in dem Satze ausgesprochen hatte:] ›Scheinbar ist Farbe, scheinbar Süßigkeit, scheinbar Bitterkeit: wirklich nur Atome und Leeres‹ [lässt er die Sinne gegen den Verstand reden:] ›Du armer Verstand von uns nimmst du deine Beweisstücke und willst uns damit besiegen? Dein Sieg ist dein Fall! [Demokrit aus Abdera: Fragmente, S. 15. Digitale Bibliothek Band 2: Philosophie, S. 201 (vgl. Diels-Vorsokr. Bd. 2, S. 85)]

Cicero zu den Atomen des Demokrit: Demokrit lehrt, dass die so genannten Atome, d.h. die wegen ihrer Dichtheit unteilbaren Körper in dem unendlichen Leeren, in dem es weder ein Oberstes noch ein Unterstes, weder eine Mitte noch einen Anfang oder Ende gebe, sich sobewegen, dass sie bei ihrem Zusammentreffen aneinander hängen blieben, und dass sich daraus alle vorhandenen und sichtbaren Dinge gebildet haben; auch soll diese Bewegung der Atome keinen Anfang gehabt haben, sondern müsse als eine ewige angesehen werden. [Cicero: Fünf Bücher über das höchste Gut und Übel, S. 12. Band 2: (vgl. Cicero-Gut, S. 22)]

Lange Zeit wurden die Atome als regelmäßige Würfel, als Ideale geometrische Körper gedacht, die an ihren Eckpunkten Ösen bzw. Haken haben mit welchen sie sich ineinander verheddern und in solcherart, aneinander hängen bleiben und komplexere Strukturen ausbilden. Wir sprechen heute häufig von Atomen und haben das Untersuchen und Beschreiben der sinnlichen Erfahrung dieser über lange Zeit den Physikern überlassen, waren es doch diese welche dem Begriff durch ihre Beobachtungsinstrumente, eine neue Sinnliche Grundlage bzw. Sinnlichen Gegenstand schufen. Dabei ist zu beachten, dass dieses „Etwas“ welches wir heute Atome nennen dem Begriff „Atom“, also „Unteilbar“ seit Entdeckung der Kernspaltung nicht mehr gerecht wird. In der Begrifflichkeit der Quantenphysik ist der neue Begriff für das Unteilbare das Quantum. Darunter versteht man ein Energiepaket welches sich nicht mehr in kleinere zerlegen lässt.

In vielen Fragmenten der vorsokratischen Naturphilosophie wurden mit Abwandlungen noch heute gültige Grundsätze formuliert. Empedokles hat als erster die materielle Ursache nicht mehr nur in einem Element gesucht, wie z.B. Thales, er nahm viel mehr vier Grundelemente (Wasser, Feuer, Luft und Erde) welche in Bewegung in einander übergehen können an. Indessen macht er doch nicht wieder vollen Ernst mit der Vielzahl, sondern behandelt sie so, als wären es bloß zwei: auf der einen Seite allein das Feuer, und dem gegenüber Erde, Luft und Wasser als eine zweite Klasse.

Dagegen lehrt nun Leukipp und sein Schüler Demokrit: Die Elemente seien das Volle und das Leere; Ersteres bezeichnen sie als das Seiende, letzteres als das Nicht Seiende. Dabei hat das Seiende nicht mehr ontologische Referenzen als das Nicht Seiende. Das Nicht Seiende ist ebenso wohl wie das Seiende, und das Leere ebenso wohl wie das Volle das Körperliche. Die Unterschiedlichkeit der Substanz ist eine dreifache: „Durch Gestalt, Anordnung und Lage. Die Unterschiede in den Dingen gehen darauf zurück, wie jegliches bemessen ist, wie eines das andere berührt und wie die Teile gewendet sind. Das Maß ergibt die Gestalt, die Berührung die Anordnung und die Wendung die Lage. So sind „A“ und „N“ von Gestalt verschieden, „AN“ von „NA“ durch die Anordnung, „Z“ von „N“ durch die Lage. Die Frage nach der Bewegung, woher sie stammt und wie sie an die Dinge kommt, haben auch sie [...] beiseite liegen lassen.“ [Aristoteles: Metaphysik, S. 34. Digitale Bibliothek Band 2: Philosophie, S. 4112 (vgl. Arist. Metaph., S. 16)]


Die Wiederentdeckung im neunzehnten Jahrhundert

Diese atomistische Lehre geriet im Bewusstsein der Naturforscher bald in Vergessenheit, gab es doch für Empiriker keinen ästhetisch erfahrbaren Gegenstand der Erkenntnis. Die Atomlehre blieb allerdings unangezweifelt, bis durch Naturforscher wie John Dalton (1766- 1844) Diese Theorie wieder aufgegriffen wurde um Reaktionen verschiedener chemischer Stoffe miteinander in Abhängigkeit ihrer Masse und Eigenschaft zu beschreiben. Diese Theorie erklärt einige bis dahin unverständliche Gesetze:

Massenerhaltungssatz Gesetz der konstanten Proportionen Gesetz der multiplen Proportionen

Mit Abwandlungen heute noch gültige Postulate der Daltonschen Atomtheorie sind: Chemische Elemente bestehen aus kleinsten, nicht weiter zerlegbaren Teilchen, den Atomen. Alle Atome eines Elements sind einander gleich, besitzen also gleiche Masse und gleiche Gestalt. Atome verschiedener Elemente haben verschiedene Eigenschaften. Jedes Element besteht also aus nur einer für das Element typischen Atomsorte. Chemische Verbindungen entstehen durch Reaktion verschiedener Elemente. Die Atome verbinden sich in einfachen Zahlenverhältnissen. Bei einer chemischen Reaktion werden Atome miteinander verbunden oder voneinander getrennt. Dabei werden nie Atome zerstört oder neu gebildet, und kein Atom eines Elements geht in das eines anderen Elements über (Massenerhaltung). Daltons Theorie ist heute noch gültig, wenn auch das erste Postulat etwas modifiziert wurde. Nach heutiger Kenntnis bestehen die meisten Elemente aus verschiedenen Atomsorten, die sich in ihren Massen unterscheiden (Isotope).

Grundlagen der Quantenfeldtheorie

Die Physiker benutzen für ihre Theorien die Sprache der Mathematik, sie suchen nach mathematischen Modellen, mit deren Hilfe dann präzise Aussagen über die physikalischen Erscheinungen gewonnen werden sollen. Im Idealfall gelangt man so zu weitreichenden Theorien, die die Erscheinungen eines großen Gebietes beschreiben. Beispiele sind die Maxwellsche Theorie des elektromagnetischen Feldes, die Einsteinsche Relativitätstheorie (die die Struktur von Raum und Zeit und die Gravitation beschreibt) und die Quantentheorie von Heisenberg und Schrödinger (mit der man die Vorgänge auf atomarem Niveau beherrscht). Doch ist es bisher nicht gelungen, diese Theorien in konsistenter Weise zu einer umfassenden Quanten- und Feldtheorie (= Quantenfeldtheorie) aller Kräfte zu vereinigen, deren Gültigkeitsbereich von der inneren Struktur der Elementarteilchen bis hin zu astrophysikalischen Objekten reicht.

Die Wärmetheorie oder Thermodynamik

Wärme ist jene Energie welche von einem Körper auf Grund einer Temperaturdifferenz auf einen anderen übertragen werden kann. Die Theorie dass wärme durch die Bewegung kleinster Teile herrührt war schon im antiken Griechenland bekannt und ist auch Grundlage moderner Thermodynamik, welche Wärme als Bewegung von Molekülen und deren Eigenschwingung beschreibt. Dabei ist Wärme selbst eine Elektromagnetische Schwingung, im infraroten Wellenspektrenbereich.


Clerk Maxwell (1831-1879) Der schottische Mathematiker Clerk Maxwell (1831-1879) entwickelte 1864 eine Theorie, die das Licht als ein elektromagnetisches Phänomen beschrieb und die bis dahin existierende mechanische Äthertheorie widerlegte. Seitdem wird das sichtbare Licht als ein relativ schmaler Bereich aus einem weiten Spektrum elektromagnetischer Wellen definiert.

Wellenlaenge.jpg


Joseph John Thomson (1856-1940) Wies an einem Kathodenstrahlrohr das Elektron nach und beschrieb das Atom zusätzlich als Kugel bei der Masse und positive Ladung gleichmäßig über das gesamte Volumen verteilt sind. In dieses sind negativ geladene Teilchen, die Elektronen eingebettet. Sie kompensieren die positive Ladung.

Kathodenstrahlröhre

Kathodenstrahlroehre.jpg Anode.jpg




Kathode zur Vakuumpumpe

Bei dem Kathodenstrahlröhren Experiment kann eine Massenbewegung von der Kathode zur Anode festgestellt werden. Und auf einem Schirm hinter der Anode sichtbar gemacht werden. (Anwedung: z.b beim TV Apparat Röhrenildschirme)

Ernst Rutherford (1871-1937) bestätigte experimentell anhand der Ablenkung eines Kathodenstrahls an einer Goldfolie das zwei Komponentenmodell eines sehr kleinen positiv geladenen Atomkerns und einer negativ geladene Atomhülle welche den Kern umgibt . Dabei bewegen sich die Elektronen mit hoher Geschwindigkeit um den Kern.



Komponentenmodell.jpg


Niels Bohr (1885-1962) und Arnold Sommerfeld (1868-1951)erstellen die erste komplexere Atomtheorie unter Einbeziehung Elektromagnetischer Strahlung. Dabei kreisen die Elektronen auf kreis- bzw. elipsenförmigen Bahnen um den Kern. Die Elektronen auf den verschiedenen konzentrischen Bahnen besitzen unterschiedliche Energie. Zum Atomkern hin nimmt das Energiepotenzial ab. Die Elektronen können diese Bahnen wechseln, damit ist eine Energie Absorption bzw. eine Emission in Form von Licht verbunden. (Anwendung: Phosphorisierende Zeiger an der Uhr, Reflektoren) Durch dieses Modell entstand ein Widerspruch zum Modell von Maxwell. Denn beschleunigte Ladung sendet in der klassischen Theorie nach Maxwell Elektomagnetische Strahlen aus und durch den so entstehenden Energieverlust müsste das Elektron seine Bahn verlassen und irgendwann in den Atomkern stürzen, wird es doch vom positiv geladenen Kern angezogen.

Atommodell nach Bohr



Atommodell.jpg


Quantenzustände in den Orbitalen und der Quantensprung. Der Quntensprung ist mit der Aufnahme und Abgabe von Lichtquanten verbunden.


Quatensprung.jpg Quatensprungzoom.jpg


Die gelben Pfeile sind Lichtquanten diese Heben bei auftreffen auf das Atom die Elektronen (grau, schwarz) in andere Niveaus. Die Elektronen haben die Tendenz ihren Ursprünglichen Quantenzustand wieder herzustellen und fallen nach einer unbestimmten Zeit, spontan wieder in ihren vorigen Zustand zurück und emitieren dabei den genauen Energiebetragbetrag, welcher vormals aufgewendet wurde das Orbital zu wechseln, in Form von Lichtwellen.

Die Wellennatur des Lichts

Um 1800 konnte Thomas Young (1773-1829) die Wellennatur des Lichts mit seinem Experiment am Doppelspalt nachweisen, wobei auf einem Schirm ein ausgedehntes System heller und dunkler Streifen entsteht. Diese Richtungsänderung des Lichts (Beugung) und die Entstehung des Musters erklärt die Wellentheorie durch die Überlagerung (Interferenz) der von den beiden Spalten ausgehenden halbkreisförmigen Wellen, wobei Verstärkung bzw. Auslöschung zwischen den beiden Wellensystemen stattfindet.


Interferenz.jpg


Das dabei entstehend Interferenzmuster:


Interferenzmuster.jpg


Hatte Newton also unrecht und Hygens recht ist Licht eine Welle? Wenn man jedoch den Versuchsaufbau ändert verschwindet langsam dasInterferenzmuster und man erhält ein Muster das auf einen Teilchecharakter des Lichts schließen lässt.

Das Ergebnis des selben Versuchs, nach Änderung des Versuchsaufbaus:


Teilchencharakter.jpg



Die Quantentheorie als Kind der Thermodynamik

Strahlung

Neben Wärmeleitung und Konvektion kann ein Körper Wärmeenergie durch elektromagnetische Strahlung abgeben oder aufnehmen. Die abgestrahlte(emittierte) Leistung P(e) ist proportional zur Oberfläche A und zur vierten Potenz der absoluten Temperatur. Dies ist die Aussage des Stefan-Boltzmann-Gesetzes, das 1879 von Josef Stefan empirisch gefunden und von Ludwig Boltzmann fünf Jahre später theoretisch begründet wurde. Es lautet: Die Größe e der Emissionsgrad liegt zwischen 0 und 1 und hängt von der Oberflächenbeschaffenheit des strahlenden Körpers ab. Der Faktor Faktor.jpg ist die Stefan-Boltzmann-Konstante.

                              Faktor.jpg=5.6703*10^-8W*m^-2*K^-4 

Fällt Strahlung auf einen undurchsichtigen Körper so wird sie teilweise reflektiert und teilweise absorbiert. Farbige Körper reflektieren einen großen Teil des sichtbaren Lichts, während dunkle Körper den größten Teil absorbieren. Planck setzte sich in seinen Studien vor allem mit dieser absorbierten Strahlung am schwarzen Körpern auseinander. Ein schwarzer Körper absorbiert die auf ihn auftreffende Strahlung völlig. Er ist gleichzeitig ein Idealer Strahler mit dem Emissionsgrad 1 so gibt er alle in ihm enthaltene Energie in Form von Strahlung restlos wieder ab. Er lässt weder Strahlung durch sich hindurch, noch spiegelt oder streut er sie zurück. In der Realität können diese Eigenschaften nur annähernd auftreten. Das Weltall hat beispielsweise nahezu die Eigenschaften eines schwarzen Körpers. Es nimmt alle Strahlung auf und gibt nur wenig zurück. In einer wolkenlosen Nacht sinken deshalb die Außentemperaturen. Auch die Sonne hat die Eigenschaften eines nahezu Idealen schwarzen Körpers das einzige das sich in der Thermodynamik dabei ändert ist das Vorzeichen. Technische Konstruktionen eines annähernd schwarzen Körpers sind Hohlkugeln oder geschlossene hohle Zylinder, deshalb auch die Bezeichnung Hohlraumstrahlung. Sie haben innen eine geschwärzte und aufgeraute Oberfläche. An einer Stelle ist ein winziges Loch. Dort hindurch eintretende Strahlung wird im Innenraum fast vollständig aufgenommen. Die Wärme in einer solchen Hohlkugel lässt durch das Loch die so genannte Hohlraumstrahlung austreten. Ab einer bestimmten Temperatur ist sie sichtbares Licht, erst im dunkel rot Bereich, dann hellrot bis weiß glühend. Wir kennen dies vom Schmieden von Metall und unsere Glühbirne basiert auch auf diesem Konzept. Bei Temperaturen unter 600°C ist die Strahlung des schwarzen Körpers nicht sichtbar, da sie fast ausschließlich in einem Wellenlängenbereich um 800 nm liegt(sichtbares Licht liegt bei 400 bis700nm) Nach dem Stefan-Boltzmann-Gesetz, steigt mit erhöhter Temperatur die Strahlungsleistung P stark an, und die Strahlung nimmt außerdem immer kleinere Wellenlängen an, daher beginnt der Körper zu leuchten. Die Wellenlänge ist umgekehrt Proportional zur Temperatur.

Dies findet im Wienschen Verschiebungsgesetz seinen Ausdruck:


                                          2.898mm*K          
                                           
                                         T


Realisierung eines schwarzen Körpers:


Schwarzerkoerper.jpg


Die Spektralverteilungsfunktion P(, T) lässt sich sehr einfach innerhalb der klassischen Thermodynamik herleiten. Das Ergebnis dieser Rechnung ist das Rayleigh-Jeans-Gesetz:

Wobei KB die Stefan-Boltzmann-Konstante ist.

Vergleicht man jedoch die mit dieser Formel errechneten Daten, mit den experimentell gewonnenen, so stellt man fest dass diese extrem von einander abweichen. Sieht man die Spektralverteilungsfunktion des Rayleigh-Jeans-Gesetzes welches noch nach der klassischen Theorie errechnet wurde im Vergleich zum umgearbeiteten und durch Induktion gewonnene Planckschen Gesetz, erkennt man, dass die beiden Kurven nur in Großen Wellenlängenbereichen übereinstimmen. Das führte zu Ratlosigkeit in der Fachwelt, da die Kontinuumhypothese im Bezug zur Energie hier nicht mehr zu gelten schien. Planck entschloss sich zu einer Verlegenheitstat, er nahm die experimentell gewonnenen Daten und errechnete den weiteren Verlauf der Kurve aus den statistisch gewonnenen Werten.


RayleighJeansGesetzes.jpg


Experimentelle und theoretische Arbeiten zur Spektralen Verteilung der Strahlung eines schwarzen Körpers, waren bei der Entwicklung der modernen Physik von außerordentlicher Bedeutung. Es zeigte sich dass die tatsächliche Wellenlängenabhängigkeit stark von derjenigen abwich, die mit den Gesetzen der klassischen Physik berechnet wurde. Die Erklärung dieser Diskrepanz führte Max Planck 1900 zur Hypothese von der Quantisierung der Energie. Es wurde festgestellt dass das Rayleigh Jeans Gesetz, das auf der klassischen Mechanik beruhte, nur im Bereich großer Wellenlängen seine Gültigkeit behält (im Bereich von ca. 9µm), bei Grenzwertenwerten von >0 geht die experimentell bestimmte Spektralverteilung P(,T) gegen Null, die berechnete Verteilungsfunktion jedoch gegen unendlich, da sie Proportional zu ^4 ist. Nach der klassischen Thermodynamik würden schwarze Strahler also unendlich viel Strahlung emittieren. Dieses Resultat wird als Ultraviolettkatastrophe bezeichnet.

Die Ultraviolettkatastrophe

Eine errechnete aber nicht eintretende Katastrophe steht Am Anfang der Quantenphysik. Im Jahr 1900 gelang Max Planck die Herleitung einer Verteilungsfunktion P(,T) die mit den experimentellen Daten im gesamten Wellenlängenbereich übereinstimmt.. Planck suchte nach einer Korrekturmöglichkeit in der klassischen Berechnung (Rayleigh Jeans Gesetz ), welche die experimentell gewonnenen Daten formal richtig wiedergibt und das auch im kleinen Wellenspektrenbereich. (z.B. UV Bereich) Plancks Suche war von Erfolg gekrönt als er sich entschloss, die Energie des schwarzen Körpers nicht als eine kontinuierliche Größe zu betrachten, sondern anzunehmen, dass sie in kleinen, diskreten Paketen, sog. Quanten, emittiert und absorbiert wird. Die Energie eines Quantums ist dabei proportional zur Frequenz der Strahlung:

                                       E=hv


Die Größe h ist dabei eine Proportionalitätskonstante, die als Plancksche Konstante bzw. als „Plancksches Wirkungsquantum“ bezeichnet wird. Planck bestimmte ihren Wert durch Anpassung der Spektralverteilungsfunktion an die experimentell gewonnenen Daten. Der heutige Standardwert liegt bei:

                             h=6.626*10^-34j*s = 4.136*10^-15 eV*s

Planck konnte die konstante h nicht in die klassische Physik implementieren. Die fundamentale Bedeutung der Energiequantelung wurde aber erst erkannt als Einstein mit ihrer Hilfe den Photoelektrischen Effekt erklärte. Planck selbst sagte zu seiner Entdeckung: „ Ich dachte mir nicht viel dabei“ Die von Einstein im Jahre 1905 gelieferte Erklärung zum Photoelektrischen-Effekt:: Licht besteht aus Teilchen (Photonen), wobei die Energie eines Photons proportional zur Frequenz des Lichtes ist. Für ein Elektron an der Oberfläche einer Zinkplatte oder eines anderen Festkörpers ist eine bestimmte (materialabhängige) Energie erforderlich, um es heraus zu lösen (Austrittsarbeit). Ist nun die Energie eines Photons größer als dieser Wert, so kann das Elektron herausgelöst werden. Aus dieser Erklärung ergibt sich folgende Beziehung:

                                E kin   =   h f   –   W 


E kin ... maximale kinetische Energie eines ausgelösten Elektrons h ..... Plancksches Wirkungsquantum (6,626 · 10-34 Js) f ..... Frequenz W ... Austrittsarbeit (Abhängig vom Material)




Die Entwicklung der Quantentheorie im ersten Drittel des vergangenen Jahrhunderts darf man als die wohl bedeutendste Revolution in der neueren Wissenschaftsgeschichte bezeichnen. Sowohl das Weltbild der klassischen Physik als auch das Selbstbild der Physik als Naturwissenschaft musste grundlegend revidiert bzw. erweitert werden. Insbesondere stellte sich die Frage, ob die Physik überhaupt eine einheitliche Beschreibung ihres Gegenstandsbereiches liefern kann. Auch noch mehr als siebzig Jahre nach der Formulierung der Theorie sind die Fragen nach ihrer Interpretation umstritten. Beispielsweise ist unklar, was da eigentlich gemessen wird, sowie was bei einer Messung im Grunde passiert und ob der Formalismus realistisch gedeutet werden kann.

Kopenhagener Deutung

Die Kopenhagener „Deutung“ kommt faktisch einer Bankrott Erklärung der Leitwissenschaft unter den Naturwissenschaften, der Physik, gleich. Was sich aus einer Vielzahl begrifflicher Unbestimmtheiten entwickelt hat, ist ein grundsätzlicher Verzicht auf eine Semantische Bestimmung, eine Sinnfüllung, eine klare Begriffliche Benennung der beobachteten Quantenphänomene, die in sich widersprüchliche Begriffe wie „stehende Materiewelle“(Heisenberg) zur Folge hat und mit sich führt, dies mündet in einem rein formalistischen Berechnen, ohne zu wissen was das eigentlich ist was dort berechnet wird. Was geschieht mit einer Wissenschaft die zwar Form hat aber keinen benennbaren Inhalt? (In dieser Wissenschaft ist…) kein Satz (ist) ohne Gehalt oder ohne Form möglich. Es muss etwas seyn, wovon man weiss, und etwas, das man davon weiss. Der erste Satz aller Wissenschaftslehre muss demnach beides, Gehalt und Form haben. [Fichte: über den Begriff der Wissenschaftslehre oder der sogenannten Philosophie, S. 31. (vgl. Fichte-W Bd. 1, S. 49)] Diese Ermangelung von einem eindeutig, begrifflich bestimmbaren Inhalt, äußert sich in einer Vielzahl von konkurrierender Erklärungsversuchen. Hier nur eine Aufzählung verschiedener Deutungsversuche und ihre Urheber


-Kopenhagener Deutung (Bohr): Vollständigkeit -Kopenhagener Deutung (Heisenberg): Erkenntnistheorie -Statistische Deutung (Born) -Subjektivistische Deutung (Wigner) -Viele-Welten-Deutung (Everett, Wheeler) -Dekohärenz -Einstein-Podolsky-Rosen-Paradoxon -Verborgene Parameter (Bohm) -Korrelationen, Nicht-Lokalität (Bell) -Holismus


Die Quantenphysik in Verbindung mit der Transzendentalphilosophie (nach Ingeborg Strohmeyer)

Transzendentalphilosophische Voraussetzung der Quantenmechanik nach Kant sind Raum und Zeit. 1, Raum und Zeit sind demnach keine empirischen Vorstellungen sondern sie sind apriorisch 2, Raum und Zeit sind keine Begriffe im strengen Sinne sondern Anschauungen. Denn um das Auseinander-liegen bzw. Nebeneinander-liegen von Dingen erkennen zu können, setzte ich die Vorstellung des Raumes bereits voraus. Eben so verhält es sich, beim nacheinander der Erscheinungen, wo ich die Vorstellung der Zeit vorausgesetzt wird. Während die Sinnlichkeit das Vermögen ist ein Gegenstand anzuschauen (in Raum und Zeit) ist der Verstand das Vermögen ein Gegenstand zu denken. Das geschieht durch Begriffe empirischer und nicht-empirischer Natur. Hinsichtlich ihres Gebrauchs sind Begriffe nichts anderes als Prädikate möglicher Urteile. Denn urteilen heißt Begriffe auf Objekt zu beziehen. Der Verstand urteilt. Darüber kommt Kant zu den vier Urteilsformen: Quantität, Qualität, Relation und Modalität. Von der Urteilsform der Quantität leitet sich die Kategorien der Einheit, Vielheit und Allheit ab. Der Qualität nach sind Urteile entweder bejahend oder verneinend (so wie der Ball ist rot oder nicht rot). Außerdem gibt es indefinite Urteile wie der Glatzköpfige ist nicht Blond – weil im Hinblick Haarfarbe unbestimmt. So auch der Impuls eine Elektrons dessen Ort exakt bestimmt ist unbestimmt bleibt.

Der Kategorie der Relation nach sind Urteile entweder kategorisch, hypothetisch oder disjunktiv. Im ersten Falle wir dem Gegenstand eine Eigenschaft zugesprochen. Aus der Form eines hypothetischen Urteils (wenn-dann) leitet sich die Kategorie der Kausalität ab, sprich die Relation von Ursache und Wirkung. Aus der Form eines disjunktiven Urteils (entweder-oder) erhält man die Kategorie der Wechselwirkung oder Gemeinschaft.

Der Modalität nach ist ein Urteil entweder problematisch oder assertorisch oder apodiktisch. In einem problematischen Urteil ist das Zutreffen oder die Wahrheit des Ausgesagten noch offen, in einem assertorischen wird das Ausgesagte als zutreffend behauptet (Kategorie der Wirklichkeit), in einem apodiktischen Urteil wird das Ausgesagte als notwendig bestehend behauptet, so dass man als letzte Kategorie die Notwendigkeit erhält.

Die Anwendung der Kategorien auf Erscheinungen ist nur mögliche wenn es eine dritte vermittelnde Vorstellung gibt, die sowohl sinnlich als auch intellektuell und rein ist. Eine solche Vorstellung ist das transzendentale Schema der Kategorie.

Die transzendentalen Grundsätze der Quantität sind die Axiome der Anschauung, welche besagen das: „Alle Erscheinungen ihrer Anschauung nach extensive Größen sind.“ Der Beweis geht davon aus, dass alle Erscheinungen nach der transzendentalen Ästhetik im Raum und Zeit real sind, also eine Vorstellung des ausgedehnten Mannigfalten. Dieses mannigfaltige wird durch das Erkennen synthetisiert.

So haben wir apriori den euklidschen und nicht-euklidschen Raum. Welcher von diesen beiden der reale ist, kann nur in einem Experiment erwiesen werden. Es gibt drei Arten des Daseins von Gegenständen im Raum. 1.Fall: Unendlich extensiv. Der Gegenstand ist unendlich groß im Raum. 2.Fall: Endlich extensiv. Der Gegenstand beschränkt sich auf ein endliches Raum-Gebiet, im Grenzfall auf ein Punkt. 3.Fall: Indefinit. Ein Gegenstand dessen Ausdehnung unbestimmt ist. Alle drei Formen kommen in der Physik vor. 1.Fall: Kraftfelder wie die Gravitation 2.Fall: Feste Körper 3.Fall: Quanten-Objekte


Eine solche Ableitung ließe sich ebenfalls von der Kategorie der Kausalität machen und auch hier wäre die Indefinitheit, als realisierte Kategorie, ein Schema das in der Quantenmechanik angewendet werden kann. So kann in der Quantenmechanik durch die Messung, nicht von einem eindeutigen Verhältnis oder Unverhältnis von Ursache und Wirkung gesprochen werden, die Kategorie der Kausalität bleibt hier indefinit. So verstanden ist die Quantenmechanik nicht bloß eine Statistische Zufallsrechnung. Ein Ereignis kann, muss aber nicht eintreten. Das bedeutet, dass dieses Eintreten einem ontischen Zufallsbegriff entspricht und nicht nur auf die Unkenntnis des Subjekts (epistemiologischer Zufall) zurückgeführt werden muss (verborgene Parameter-theorie).

Video über die freie Entscheidung

Waking Life - Ausschnitt - David Sosa - Freie Entscheidung

<root><br /> <h level="2" i="1">== Kontext ==</h>

Freiheit im Kopf (Seminar Hrachovec, 2006/07)

<div class="nowiki2scorm">Valid XHTML</div></root>