Diskussion:Kripke und Leibniz (Ramharter 2006)

Aus Philo Wiki
Wechseln zu:Navigation, Suche

Hallo! Die Completeness Theorem-Zusammenfassung steht soweit für alle da, nur die Tabelle unten am Beiblatt hab ich nicht hingekriegt. Wenn irgendwer von Euch Zeit und Geduld dafür hat und weiß, wie's geht, bearbeitet sie hemmungslos! lg, Naomi


Hallo,

1.) Kurze Frage zum private Language Argument: Gesetz den Fall ich akzeptiere die Argumentation, dass Regelfolgen nur in der Kommunikation der Gemeinschaft sinnvoll behandelt werden kann, so kann doch die Gemeinschaft sehr wohl beobachten ob Einzelne Regeln richtig befolgen. Im Seminar kam das Beispiel, dass Kleinkinder auf äussere Reize (unterschiedliche Anzahl derselben) in vorhersehbarer, regelfolgender, Weise reagieren. Wenn nun innerhalb der Gemeinschaft privates und kompetentes Regelfolgen Einzelner beobachtet wird, kann selbiges dann nicht als "ausreichende" Annäherung an die kollektive Norm gesehen werden, welche, wie die private Norm, auf die gleichen empirischen Ursachen zurückzuführen ist?


und wie angedroht ein paar Informationen zu Statistik:

2.) Statistik

http://www.statsoft.com/textbook/stathome.html ist eine exzellente Ressource bezüglich Statistik, allerdings vornehmlich wie sie in den Sozialwissenschaften, der Ökonomie und Teilen der Medizin gebräuchlich ist.

http://www.statsoft.com/textbook/esc.html ist eine sehr verständliche und einfache Einführung in die Thematik, allerdings eher für den praktischen Anwender gedacht. http://www.statsoft.com/textbook/stbasic.html geht mehr in die Tiefe und ist ausreichend für die Interpretation vieler empirischen Studien.

a.) Eine Richtung statistischer Verfahren bemüht sich Verteilungen, und Unterschiede in denselben, zu erkennen. Diese ist vor allem im epxerimentellen Bereich angesiedelt. Die relevanteste Verteilung ist natürlich die Gausssche Normalverteilung. http://en.wikipedia.org/wiki/Gaussian_distribution . Verfahren sind vielfältig wie z.b.: . Berechnung von Konfidenzintervallen, t-test, Varianzanalyse….. Die Auswahl des korrekten Instruments erfolgt anhand theoretischer Anforderungen an das Skalen-, Verteilungsniveau und Ähnlichem… In den Sozialwissenschaften wird die Annahme der Normalverteilung oft verletzt, glücklicherweise haben sich viele Verfahren als robust gegenüber dieser Verletzung gezeigt. Hier gibt es viele Überschneidungen mit den statistischen Methoden naturwissenschaftlicher Richtungen. Aufgrund der Darstellung des statischen Ergebnis als Wahrscheinlichkeitswert wäre es möglich dieses in einem möglichen Weltenszenario zu modellieren. Ist der Unterschied den man empirisch wahrnimmt lediglich zufällig oder auf einen realen Unterschied in der Population zurückzuführen. Vielleicht könnte man eine Verbindung mit counterfactuals/Kausalität herstellen.

b.) Eine andere Richtung statistischer Verfahren bemüht sich um eine Datenreduktion um Strukturen und Zusammenhänge sichtbar zu machen. Sehr deutlich sieht man dieses Prinzip bei dem Verfahren der Multidimensionalen Skalierung welches allerdings kaum noch verwendet wird: http://www.statsoft.com/textbook/stmulsca.html

Cluster Analyse: http://www.statsoft.com/textbook/stcluan.html ist ein Verfahren in welchem Objekte aufgrund ihrer Ähnlichkeit zu Clustern zusammengefasst werden. Der ICD10 http://www.who.int/classifications/icd/en/ , eine Taxonomie der WHO, ist zum Beispiel in Clustern aufgebaut. Umgekehrt kann man auch http://www.statsoft.com/textbook/stclatre.html classification trees verwenden um die Zugehörigkeit einer Person(Fall..) in eine Klasse anhand von Prädikatoren vorherzusagen.

Eine sehr allgemeine Technik ist die Faktorenanalyse http://www.statsoft.com/textbook/stfacan.html . Ein interessanter Aspekt der Faktorenanalyse ist, dass sie künstliche latente Konstrukte erzeugt, welche benannt werden. Hierbei kommen allerdings einige Interpretationsspielräume zu tragen. Einerseits zuvor technische(Rotation) und anschließend weitere in der aktuellen Benennung des Faktors welche aufgrund der Ausprägung einzelner Items auf dem Faktor geschieht. Items welche hoch auf einen Faktor laden werden also inhaltlich interpretiert und bestimmen die Bedeutung des Faktors. Umgekehrt kann man genauso die Geltung eines Faktorenmodells in der confirmatory Factor Analysis überprüfen.

Eine Anwendung der Faktorenanalyse findet sich in dem Semantischen Differential, welches anscheinend in Zusammenhang mit Wittgensteins Philosophie gesehen werden kann. http://www.cultsock.ndirect.co.uk/MUHome/cshtml/introductory/semdif.html http://en.wikipedia.org/wiki/Semantic_differential_scale Interessant ist, dass sich immer dieselben 3 Faktoren Evaluation, potency, and activity gezeigt haben. Andererseits ist die Faktorenanalyse interpretationsabhängig und die Psychologie dogmenanfällig. Nichtsdestotrotz ist dieses Ergebnis eins der stabileren in weicheren Bereichen der Psychologie.

Eine allgemeinere statistische Methode, von welcher die Faktorenanalyse, Varianzanalyse.. ein Spezialfall sind und welche die Ansätze a und b vereint, sind Strukturgleichungsmodelle(SEM) http://www.statsoft.com/textbook/stsepath.html#concept . SEM werden in unterschiedlichen Bereichen, wie Biologie, Ökonomie, Psychologie…. eingesetzt. Ein älteres, aber sehr gutes Einführungsbuch gibt es hier http://davidakenny.net/doc/cc_v1.pdf . Allerdings verwendet es nicht die heutzutage gängige Notation.

Wo sind mögliche Überschneidungen zu unserem Thema?

1.) SEM sind Kausalmodelle.

2.) Die Bedeutung der latenten Konstrukte. Zum Beispiel schreibt Mulaik in Structural Equation Modeling : Concepts, Issues, and Applications(1995): "We hold that structural equation models as mathematical models represent objective states of affairs. There is, we assert, a language for representing objective suites of affairs, the language of objects (Mulaik, 1993b, 1994). Thus mathematical models will be constrained to represent within them the grammatical features of the object language, if they are to represent objective states of affairs. In the language of objects, we speak about objects bearing properties, of how the properties of objects cause or determine other properties of the same or other objects. Formally speaking, objects are subjects, and their properties are predicates. Whereas early 20th century logicians tended to regard properties as logically independent of other properties, it was early on recognized that, in our natural languages, properties come grouped together in families, and only one property from a family is ever assigned to an object at any one time (Wittgenstein. 1975). Thus families of properties can be represented by variables, and the assignment of a specific value to a variable in mathematics can represent the assignment of a specific property to a given object (Mulaik, 1986, 1987)." Ist aber etwas aus dem Zusammenhang gerissen, ich kann gerne den gesamten Artikel mitnehmen oder emailen. Kausale Modelle finde ich sehr passend und praktikabel, die Durchführung eines Strukturgleichungsmodells weniger, da eine grosse Stichprobe notwendig(>120 Minimum) wäre, die Interpretation fehleranfällig ist und es wahrscheinlich niemanden interessiert :)


Neuronale Netzwerke und Machine Learning http://www.statsoft.com/textbook/stneunet.html sind sehr spannende Gebiete von denen ich aber keine Ahnung habe.


Fazit: Auch wenn ich sehr viele Überschneidungen und interessante Aspekte in Bezug zu unserem Thema sehe, springt mir keine offensichtliche Anwendung ins Auge. Die im Bereich b angesiedelten Methoden finde ich zu speziell und unflexibel. Am ehesten könnte ich mir etwas in die Richtung vorstellen: Wir definieren eine kausale Beziehung mehrerer Variablen. Die Darstellung aller möglichen Ausprägungen der Welten analog zu einer Wahrheitstafel in unserem 3d Universum. Keine Ahnung ob oder wie wir dabei den quantitativen Ansatz der Statistik hineinbringen würden. Aber Wahrscheinlichkeiten und Gaussche Normalverteilung sind immer gut :)

lg, eugen