Diskussion:Kripke und Leibniz (Ramharter 2006)
Hallo! Die Completeness Theorem-Zusammenfassung steht soweit für alle da, nur die Tabelle unten am Beiblatt hab ich nicht hingekriegt. Wenn irgendwer von Euch Zeit und Geduld dafür hat und weiß, wie's geht, bearbeitet sie hemmungslos! lg, Naomi
Leibniz' mögliche Welten
Kurt Gödel kritisiert Leibniz für den ungenauen Begriff der Möglichkeit. (in den letzten Tagen gehört)
Die Erwägung mit den beiden verschiedenen Reihen, mit der Kontradiktion und mit der Kompossibilität wäre, zumindest was mich selbst betrifft, einer Klärung zu unterziehen. Das hab ich aus dem letzten Referat am 25. April nicht ganz mitbekommen.
Dann existiert diese Stelle, die nur sinngemäß und nicht exakt zitiert werden konnte, über die Allwissenheit Gottes. Leibniz schreibt von der Einsicht in einen einzigen punktierten Zustand, die vollständig besessen dazu führt, dass man gleich das vollständige Wissen von allen Zuständen zu allen anderen Zeiten besitzt. Und das könne nur Gott haben. Das zeigt meinem Gefühl und Vorurteil nach nicht die Allwissenheit des Gottes auf; sondern erklärt uns, wie absurd und ungenau gedacht es ist, wenn man von auch nur irgendetwas behauptet, man kenne es vollständig (so geschehen in einem jüngeren Gedankenexperiment mit einer Wissenschaftlerin Mary). --Georg 17:33, 30. Apr 2006 (CEST)
- hier ein Link zu Mary's Experiment: Mary's_room Ich muss allerdings sagen, dass ich das Experiment, in seiner ursprünglichen Intention, nicht in unserem Kontext, nicht so eingängig finde. Viel hängt doch von dem Begriff Wissen ab. Ich finde Dennets Argumentation:"Dennett argues that although we cannot conceive of such a deep knowledge, if a premise of the thought experiment is that Mary knows all there is to know about color, we cannot assume that we can fathom or even describe such knowledgeor that such knowledge doesn't exist." ziemlich stimmig. Aber lässt sich das Leibniz'sche Argument nicht, meiner Meinung nach eindeutiger, durch das Prinzip der Nonlinearität, im mathematischen und nicht im statistischen Sinne einer nonlinearen Skalierung, widerlegen. --Eugen 16:12, 1. Mai 2006 (CEST)
Privatsprache
Hallo,
1.) Kurze Frage zum private Language Argument:
Gesetz den Fall ich akzeptiere die Argumentation, dass Regelfolgen nur in der Kommunikation der Gemeinschaft sinnvoll behandelt werden kann, so kann doch die Gemeinschaft sehr wohl beobachten ob Einzelne Regeln richtig befolgen. Im Seminar kam das Beispiel, dass Kleinkinder auf äussere Reize (unterschiedliche Anzahl derselben) in vorhersehbarer, regelfolgender, Weise reagieren. Wenn nun innerhalb der Gemeinschaft privates und kompetentes Regelfolgen Einzelner beobachtet wird, kann selbiges dann nicht als "ausreichende" Annäherung an die kollektive Norm gesehen werden, welche, wie die private Norm, auf die gleichen empirischen Ursachen zurückzuführen ist?
- Du abstrahierst dich über Wittgenstein hinweg. Und du meinst mit den verschiedenen Normen etwas anderes. Also, was die kollektive Norm betrifft, da bin ich ganz im Unklaren, was damit jetzt sowohl im Kontext der Regeln als auch der Privatsprache, bezeichnet wird. Bitte um Klärung. --Georg 17:33, 30. Apr 2006 (CEST)
Stimmt, mein Gebrauch des Ausdrucks Norm war unglücklich gewählt. Ich glaube mein Argument läuft im Endeffekt darauf hinaus: zeigt Wittgensteins Privatsprachenargument lediglich erkenntnistheoretische Grenzen und Rahmenbedingungen auf, oder macht es direkte, grundlegende Aussagen über die Beschaffenheit der Welt.
Epistemologie vs. Ontologie?
Ist es eine psychologische Eigenschaft des Menschen, eingebettet in die Welt, oder ist eine freie Kommunikation der Geister in einem Nichts genauso vorstellbar, welche in ihrer gemeinschaftlichen Kommunikation die Welt in einer gewissen "zeitlichen"(Zeit ohne Raum....) Stabilität konstruieren. Akzeptiert der "späte" Wittgenstein eine reale Welt als Mitspieler in dem erkenntnistheoretischen Prozess? Er akzeptiert ja auch die Existenz anderer "Lebensformen" als nicht dem Skeptizismusgedanken unterworfen, da ansonst sein Argument ins Leere laufen würde. Wenn er dies (eine reale Welt anzunehmen) tut, ist dann eine Abstrahierung nicht möglich?
http://www.iep.utm.edu/e/epis-per.htm#H3 gibt einen interessanten, kurzen Überblick über neuere Entwicklungen.
(lg, ein kranker Eugen, der hofft bis morgen wieder fit zu sein. --Eugen 09:16, 1. Mai 2006 (CEST) )
Statistik
und nun wie angedroht ein paar Informationen zu Statistik:
2.) Statistik
http://www.statsoft.com/textbook/stathome.html ist eine exzellente Ressource bezüglich Statistik, allerdings vornehmlich wie sie in den Sozialwissenschaften, der Ökonomie und Teilen der Medizin gebräuchlich ist.
http://www.statsoft.com/textbook/esc.html ist eine sehr verständliche und einfache Einführung in die Thematik, allerdings eher für den praktischen Anwender gedacht. http://www.statsoft.com/textbook/stbasic.html geht mehr in die Tiefe und ist ausreichend für die Interpretation vieler empirischen Studien.
Es werden oft zwei unterschiedliche Richtungen in der Statistik (zumindest in der Psychologie, Sozialwissenschafte,..)unterschieden. Der experimentelle und der korrelative, explorative. Diese Unterscheidung ist jedoch eigentlich künstlich und führt in Folge oft zu negativen Auswirkungen (Signifikanzgläubigkeit, mangelnde Konstruktvalidität...).
Trotzdem:
a.) Eine Richtung statistischer Verfahren bemüht sich Verteilungen, und Unterschiede in denselben, zu erkennen. Diese ist vor allem im experimentellen Bereich angesiedelt. Die relevanteste Verteilung ist natürlich die Gausssche Normalverteilung. http://en.wikipedia.org/wiki/Gaussian_distribution . Verfahren sind vielfältig wie z.b.: . Berechnung von Konfidenzintervallen, t-test, Varianzanalyse .. Die Auswahl des korrekten Instruments erfolgt anhand theoretischer Anforderungen an das Skalen-, Verteilungsniveau und Ähnlichem In den Sozialwissenschaften wird die Annahme der Normalverteilung oft(meist) verletzt, glücklicherweise haben sich viele Verfahren als robust gegenüber dieser Verletzung gezeigt. Hier gibt es viele Überschneidungen mit den statistischen Methoden naturwissenschaftlicher Richtungen. Aufgrund der Darstellung des statischen Ergebnis als Wahrscheinlichkeitswert wäre es möglich dieses in einem möglichen Weltenszenario zu modellieren. Ist der Unterschied den man empirisch wahrnimmt lediglich zufällig oder auf einen realen Unterschied in der Population zurückzuführen. Vielleicht könnte man eine Verbindung mit counterfactuals/Kausalität herstellen.
b.) Eine andere Richtung statistischer Verfahren, der korrelative, bemüht sich um eine Datenreduktion um Strukturen und Zusammenhänge sichtbar zu machen. Sehr deutlich sieht man dieses Prinzip bei dem Verfahren der Multidimensionalen Skalierung welches allerdings kaum noch verwendet wird:
http://www.statsoft.com/textbook/stmulsca.html
Cluster Analyse: http://www.statsoft.com/textbook/stcluan.html ist ein Verfahren in welchem Objekte aufgrund ihrer Ähnlichkeit zu Clustern zusammengefasst werden. Der ICD10 http://www.who.int/classifications/icd/en/ , eine Taxonomie der WHO, ist zum Beispiel in Clustern aufgebaut. Umgekehrt kann man auch http://www.statsoft.com/textbook/stclatre.html classification trees verwenden um die Zugehörigkeit einer Person(Fall..) in eine Klasse anhand von Prädikatoren vorherzusagen.
Eine sehr allgemeine Technik ist die Faktorenanalyse http://www.statsoft.com/textbook/stfacan.html .
Ein interessanter Aspekt der Faktorenanalyse ist, dass sie künstliche latente Konstrukte erzeugt, welche benannt werden. Hierbei kommen allerdings einige Interpretationsspielräume zu tragen. Einerseits zuvor technische(Rotation) und anschließend weitere in der aktuellen Benennung des Faktors welche aufgrund der Ausprägung einzelner Items auf dem Faktor geschieht. Items welche hoch auf einen Faktor laden werden also inhaltlich interpretiert und bestimmen die Bedeutung des Faktors. Umgekehrt kann man genauso die Geltung eines Faktorenmodells in der confirmatory Factor Analysis überprüfen.
Eine Anwendung der Faktorenanalyse findet sich in dem Semantischen Differential, welches anscheinend in Zusammenhang mit Wittgensteins Philosophie gesehen werden kann.
http://www.cultsock.ndirect.co.uk/MUHome/cshtml/introductory/semdif.html
http://en.wikipedia.org/wiki/Semantic_differential_scale
Interessant ist, dass sich immer dieselben 3 Faktoren Evaluation, potency, and activity gezeigt haben.
Andererseits ist die Faktorenanalyse interpretationsabhängig und die Psychologie dogmenanfällig. Nichtsdestotrotz ist dieses Ergebnis eins der stabileren in weicheren Bereichen der Psychologie.
- Beim Link zu Wittgenstein gibt es Ergebnisse zur Konnotation von Worten. Vorher wird diese Konnotation von drei anderen Aspekten der Bedeutung geschieden. So, wie Osgood die Bedeutung von Wörtern untersucht, ist die Vierteilung gewiss angebracht. In meinem Referat habe ich über Denotation und Konnotation allerdings eine andere Sicht angedeutet; ich meinte, Denotationen könnten als Spezialfälle von Konnotationen aufgefasst werden. Diese Aussagen müssen natürlich verfeinert werden. --Georg 17:33, 30. Apr 2006 (CEST)
Eine allgemeinere statistische Methode, von welcher die Faktorenanalyse, Varianzanalyse.. ein Spezialfall sind und welche die Ansätze a und b vereint, sind Strukturgleichungsmodelle(SEM) http://www.statsoft.com/textbook/stsepath.html#concept . SEM werden in unterschiedlichen Bereichen, wie Biologie, Ökonomie, Psychologie . eingesetzt. Ein älteres, aber sehr gutes Einführungsbuch gibt es hier http://davidakenny.net/doc/cc_v1.pdf . Allerdings verwendet es nicht die heutzutage gängige Notation.
Wo sind mögliche Überschneidungen zu unserem Thema?
1.) SEM sind Kausalmodelle.
2.) Die Bedeutung der latenten Konstrukte. Zum Beispiel schreibt Mulaik in Structural Equation Modeling : Concepts, Issues, and Applications(1995): "We hold that structural equation models as mathematical models represent objective states of affairs. There is, we assert, a language for representing objective suites of affairs, the language of objects (Mulaik, 1993b, 1994). Thus mathematical models will be constrained to represent within them the grammatical features of the object language, if they are to represent objective states of affairs. In the language of objects, we speak about objects bearing properties, of how the properties of objects cause or determine other properties of the same or other objects. Formally speaking, objects are subjects, and their properties are predicates. Whereas early 20th century logicians tended to regard properties as logically independent of other properties, it was early on recognized that, in our natural languages, properties come grouped together in families, and only one property from a family is ever assigned to an object at any one time (Wittgenstein. 1975). Thus families of properties can be represented by variables, and the assignment of a specific value to a variable in mathematics can represent the assignment of a specific property to a given object (Mulaik, 1986, 1987)." Ist aber etwas aus dem Zusammenhang gerissen, ich kann gerne den gesamten Artikel mitnehmen oder emailen. Kausale Modelle finde ich sehr passend und praktikabel, die Durchführung eines Strukturgleichungsmodells weniger, da eine grosse Stichprobe notwendig(>120 Minimum) wäre, die Interpretation fehleranfällig ist und es wahrscheinlich niemanden interessiert :)
Neuronale Netzwerke und Machine Learning http://www.statsoft.com/textbook/stneunet.html sind sehr spannende Gebiete von denen ich aber keine Ahnung habe.
Fazit: Auch wenn ich sehr viele Überschneidungen und interessante Aspekte in Bezug zu unserem Thema sehe, springt mir keine offensichtliche Anwendung ins Auge. Die im Bereich b angesiedelten Methoden finde ich zu speziell und unflexibel. Am ehesten könnte ich mir etwas in die Richtung vorstellen: Wir definieren eine kausale Beziehung mehrerer Variablen. Die Darstellung aller möglichen Ausprägungen der Welten analog zu einer Wahrheitstafel in unserem 3d Universum. Keine Ahnung ob oder wie wir dabei den quantitativen Ansatz der Statistik hineinbringen würden. Aber Wahrscheinlichkeiten und Gaussche Normalverteilung sind immer gut :)
lg, eugen