Diskussion:Friedrich Kittler: Code oder wie sich etwas anders schreiben lässt

Aus Philo Wiki
Wechseln zu:Navigation, Suche

Weltoffenheit als Warten auf den Propheten

Es gibt eine, wenn auch von einigen Seiten bezweifelte, medienwissenschaftliche Theorie, die den Übergang des vorherrschenden Schreibmediums von der antiken Buchrolle zum buchförmigen Kodex im Mittelalter mit dem Starkwerden des Christentums verbindet. (Roberts/Skeat: The birth of the codex (London 1983) S. 70) Der mittelalterliche Kodex, der, bis auf die etwas andere Größenordnung, durchaus mit unserer heutigen Buchform gleichzusetzen ist, deute demnach einen Übergang von der heidnischen Weltoffenheit zur christlichen Innerlichkeit und Abgeschlossenheit. (Assmann: Kanon und Zensur (München 1987) S. 17) Die zwischen den beiden Holzdeckeln befindliche "höchste Schrift" nähme in ihrer Gesamtheit Anspruch auf Abgeschlossenheit und auf das Privileg der Vollendung, oder, wollte man in diesem Sinne geschichtlich etwas schräg vorgreifen, beträfe als einziger Kodex die Welt "als Ganzes".

Dieser Theorie der Ganzheit widerspräche jedoch das, wenn auch spärliche, Auffinden von Teilen des neuen Testaments in "offener" Rollenform. Ließe sich sonst die Rollenform auf ein paradoxes oder mindestens skeptisches Denken projizieren?

Aus jüdischer Sicht ließe sich zumindest von einer Welt und Anschauungsschreibung, bzw. Ausschreibung des "Codes" in Form des Talmud sprechen. Im christlichen Bereich bestand für die Deutung "des Codes" nicht genug Zwischenraum, um Kommentare bindend zu machen. Möglicherweise hat der Gottessohn die Dinge schon allzufest mit dem Wort verbunden.

weitere Quellen: Jochum: Kleine Bibliotheksgeschichte (Stuttgard 1993) S. 48-65


Hier ein Exzerpt aus einem Vortrag über Wittgensteins Nachlass
One feature of a culture based on books deserves special attention as this culture is challenged by the advent of digital, globally distributed information. Books are marked by the coincidence of two seperate decisions: their content and its appearance are determined simultaneously. This is what publication of a book, in effect, amounts to -- and it throws some light on Wittgenstein's qualms. He felt unable to decide on one shape for his ideas. Publication, throughout European history, simply meant drawing a line between a creative process and its (albeit provisional) results. Sending a manuscript to the publisher was to distinguish a line between sketches, preliminary attempts, experimental drafts and an entity exhibiting both the features of the most prestigious information technology and of auctorial closure. Books divided the lifetime of an author into continuous activity and singular results, texts that, from a certain moment in time, assume a life of their own. This arrangement is being thoroughly shaken by the advent of new media. First of all, digital encoding disrupts the familiar coordination between form and content. Characters are mapped into numbers that are, in turn, symbolized in an electronic format unsuitable for direct perception. And this transposition, secondly, triggers dramatic changes in the nature of publicity. Electronic texts can instantly be published to a world audience and still be constantly revised.
In the given context it is particularly instructive to notice the implication for posthumous ``works. In the world of books a Nachlass is defined as all the material an author did not manage or see fit to get printed. Its peculiar character is that future generations retro-activly elevate such writing to the status of books. If books published by an author are what software developers call a ``feature-freeze, publications from a Nachlass are based on decisions to overrule such limitations. There is no way to escape the allure of ``works in book culture. In Nachlass-publications auxiliary authors assume responsibility to supplement a writer's oeuvre with ``second order books. Applying this to the case at hand yields a suggestive prospect. While the trustees failed to do justice to Wittgenstein's open-ended, conversations philosophical style, a digital edition of the Nachlass is much better suited to achieve this aim. Such an enterprise is not forced to turn a collection of tentative designs into bound volumes. --anna 07:16, 4. Apr. 2008 (CEST)

Recht als Handlungscode

Der Abstand zwischen dem rechtlichen Kodex und dem "technischen" Code ist nicht ganz so weit wie Kittler ihn deutet. Zumindest zu dem Zeitpunkt wo das Recht seine Positivität eingestehen muss oder seine eigene Bezweifelbarkeit andeutet (Widerstandsrecht) bekommt der Komplex der Rechte den Wert eines Instrumentariums, innerhalb dessen die ganze Breite des möglichen Handlungsspielraums codiert werden kann. Man sieht also, dass das "naive" Verständnis eines Rechts als unhintergehbare Grenzziehung einem anderen abgeschlosseneren Denken entspricht. Das Recht ist so nicht mehr Grenze des Möglichen sondern vielmehr Ausweg aus dem Begrenzten. Recht als sanktioniertes Unrecht.


Zu Code und Recht siehe natürlich: Codev2 von Lawrence Lessig
"Kodifiziert" heisst: in ein diskretes Alphabet übertragen, schriftlich niedergelegt. In diesem Sinn sind die Aufzeichnung einer Rechtspraxis und die Anweisungen einer Programmiersprache vergleichbar. Gesetzbücher haben wir gegen die Willkür einzelner Personen, Computercode regelt die Ausführung vopn Programmen, im Unterschied z.B. von Kabeldefekten.
Der von Richardd angesprochene "Handlungsspielraum" ist also doppelt aufzufassen, nehmen wir es am Beispiel des Dorfrichters Adam aus Kleists "Zerbrochenem Krug":
  • Er hat die Freiheit, das gesetzliche Verfahren zu verdrehen. Das Gesetzbuch bedarf der Anwendung und darin ist der "Mißbrauch" angelegt.
  • Die Freiheit entsteht aber auch durch das Gesetz, nämlich für Marthe und Eve Rull.
--anna 07:41, 4. Apr. 2008 (CEST)

Code und Gewohnheitsrecht

Bezogen auf das Recht könnte man auch noch eine andere Linie in Richtung Code ziehen. Das festgehaltene Gewohnheitsrecht entspricht im konstruktivistischen Sinn der Gerinnung eines Codes. Das wiederholte Auftreten möglicherweise ähnlicher Gegebenheiten (in jederlei Hinsicht) wird auf eine Wort- bzw. Sinnebene kondensiert. Aus systemtheoretischer Position vertritt dieses Kondensat die zur Sprache nötige Verbindung aus Einheit und Vielfalt. Einerseits ist klar erkennbar, dass eine Sache unter einem gewissen Gesichtspunkt identifizierbar und codifizierbar ist, andererseits lässt das vereinheitlichende Kondensat Raum für individuelle Gegebenheiten.

Das würde ich anders fassen: "Gerinnung" suggeriert einen Naturvorgang, wie "Erosion". Was dabei verlorengeht ist die normative Komponente eines Übersetzungssystems. Ist es Gewohnheitsrecht, dass man an einigen Stellen, an denen "eigentlich" Rauchverbot herrscht, rauchen darf? Was ist hier mit den "individuellen Gegebenheiten"? Eine sinnvolle Ausnahme? Ein Gesetzesverstoß? --anna 07:47, 4. Apr. 2008 (CEST)

So gesehen muss natürlich ein Urcode existieren, in dem die restlichen Sinneinheiten aufgelöst sind. Die Differenz 0/1, bzw. innen/außen als Code lässt sich möglicherweise auf ein anthropologisches Grundweltverständnis zurückführen, das jede andere "Logik" und Sinnhaftigkeit trägt. Vollkommen klar ist hierbei allerdings, dass einem solchen Modell folgend, viel weniger der einzelne Wert z.B. 0 oder 1 als diese Werte strukturell zueinanderstehend Sinn ergeben. --> Code als notwendig formbegrenzte Menge. Die Semantik kann nicht mehr von einer Form getrennt werden. --Richardd 21:43, 23. Mär. 2008 (CET)

vom Signalverarbeitungssystem zum wortlosen Programmierer

Nachdem ich heute Kittler gelesen und die 1. Vorlesungseinheit angehört habe, sind bei mir einige Anmerkungen / Fragen / Irritationen entstanden, die ich hier gerne zur Sprache bringen würde:

Analoge Codes existieren nicht

  • In der Vorlesung wurde erwähnt, dass es Analogen Code schlichtweg nicht gäbe. Das würde heißen, Code ist nur möglich aufgrund diskreter, eindeutig unterscheidbarer Zeichen, oder wenn wir im Jargon der Signalverarbeitung reden: unterscheidbarer abgrenzbarer Zustände im Signal.
  • Ich möchte aber behaupten, dass Code überhaupt nur möglich ist weil ihm Analoges zugrundeliegt, denn: Das Signal ist prinzipiell immer analog. Das ideale Rechtecksignal, das in einer unendlich kurzen Zeit vom Zustand 0 (der einem bestimmten Spannungswert plus/minus Toleranz zugeordnet ist) in den Zustand 1 übergeht, ist nicht realisierbar. Auf dieser Ebene sind schon die Grundlagen von Code - das Alphabet, die wohl unterscheidbaren, diskreten Zustände - immer auf Analoges, auf prinzipiell unendlich fein differenzierten Spannungswerten, angewiesen.
  • Was man macht, um diese unüberschaubare Anzahl von Spannungswerten zu ordnen, es handhabbar und operabel zu machen, ähnelt der Verfahrensweise der Erfahrungswissenschaft: Das Analoge Signal wird (durchaus durch Konventionen) in Kategorien eingeteilt, das sind eben die Zustände. Das müssen nicht unbedingt 2 Zustände sein (in der Messtechnik nimmt man üblicherweise viel). Code entsteht also, wenn man das so sagen darf, durch Interpretation von Analogen Signalen. Man hat immer eine vielfältige, verrauschte, zugrundeliegende Welt, die man versucht zu kontrollieren. Dies kann man nun vielleicht zurückprojizieren auf die Gesetzgebung in der Gesellschaft.


In diesem Fall kann man beides haben: Code ist diskret und er ist nur auf der Grundlage analoger Phänomene möglich. Der Ausdruck "analog" ist ja in diesem Fall eine Rückprojektion aus dem Bereich des Digitalen und heißt "nicht auf der Differenz 0/1 aufgebaut". "Das Signal ist analog" kann dann heissen: Es handelt sich um ein Naturereignis, das wir mit einer Mitteilung verbinden und das ist physisch undiskret (Rauchzeichen, Lächeln, Zurufe). Dazu kommen aber zwei weitere Betrachtungsweisen. Erstens ist die Ausgrenzung dieses Naturereignisses als Signal sehr wohl diskret. Es kann nicht alles als ein Lächeln gelten. Signale sind in einem Raum der Mitteilung implementiert. Und zweitens kann dann die physische Erscheinungsform des Signals "digitalisiert" werden.
"Analoge Signale" sind also schon ein komplexes Gebilde, eine Mischung von analog und digital. Ich verstehe die Absicht, auf die "verrauschte Welt" hinzuweisen. Aber man sollte nicht vergessen, dass diese Qualifikation die Kehrseite des Diskreten ist, sozusagen im Bündnis mit der Digitalität. (Arbeit und Erholung, Stadt und Land etc.) Wichtig scheint mir, dass die "Interpretation" ein Moment der Gesetzgebung enthält und dass mit dieser Gesetzgebung (siehe oben) eine besondere Konstellation von Freiheit und Zwang insgesamt entsteht. --anna 08:03, 4. Apr. 2008 (CEST)

"Man kann ebenen Code kaum weitersagen" - Seit wann können Programmierer nicht sprechen?

  • Der letzte Absatz von Kittlers Vortrag ist mir nicht ganz einsichtig. Wenn ich es richtig verstehe ist hier gemeint, dass die Worte, über die man sich als Mensch über ein Programm unterhält (oder Gedanken macht), fehleranfällig, ungenau und mehrdeutig sind. Sobald man aber seinen "eigene[n] Kopf von Worten ganz ganz [!] entleert" - läuft das Programm schlussendlich. Das klingt für mich so, als ob Kittler im Schreiben von Code eine sinnentleerte unnatürliche Tätigkeit sieht.
  • Als Informatikstudent muss ich dem widersprechen: Das Programm läuft nicht aus dem Grund, weil die Programmierer ihre Worte aus ihren Köpfen entleeren, sondern zunächst einmal, weil sie sich Gedanken darüber machen, welche Funktion das Programm zu erfüllen hat und auf welche Art diese Funktion zu realisieren ist (das kann mitunter ein sehr kreativer Vorgang sein). Natürlich muss man wissen, wie man diese Ideen dann in Code umsetzt - doch auch hier bedient man sich als Mensch natürlichsprachlicher Erklärungen, um zum Beispiel nachzulesen, was Hilfsfunktionen oder Schlüsselwörter in dieser Programmiersprache bewirken.
  • Man darf meiner Meinung nach nicht vergessen, dass die Maschine (nur) Zeichen manipuliert und Bedeutungen erst von uns Menschen an die Maschine herangetragen werden. Es stimmt schon: Es ist schwer, Code zu lesen, den ein anderer geschrieben hat oder den man selbst vor langer Zeit geschrieben hat, wenn er nicht kommentiert ist. Andererseits ist es aber auch schwer, in die Gedankenwelt Hegels, Gödels, des EU-Vertrags oder seiner eigenen einzutreten; dabei sagt aber niemand, dass man seine Köpfe entleeren muss.


Kittler ist provokant und das vor dem Hintergrund einer philosophischen Großtheorie, nämlich dem Anti-Humanismus Heideggers und Foucaults. Seine kecke Bemerkung geht in Richtung der "Humanisten", die der Auffassung sind, jeder Sinn würde auf nachvollziehbare vernünftige Urteilsakte zurückführbar sein. --anna 08:10, 4. Apr. 2008 (CEST)

Turing hat nicht alles erfunden

  • Was ist mit Leibniz oder Bool oder Von Neumann oder Shannon? Ich denke hier sind sehr wichtige Dinge passiert, die man sich für ein besseres Verständnis von Code näher ansehen sollte. Vor allem wäre interessant zu erörtern, warum Logik und Philosophie, einst eng beeinander, soweit auseinandergedriftet sind.
  • [to be continued...] --Andyk 00:16, 3. Apr. 2008 (CEST)
Das Ausblenden der eigenen Gedanken wird von Kittler wohl in keinster Weise mit einem Ausschalten der Intelligenz, Kreativität oder ähnlichem gleichgesetzt. Viel eher bezieht er sich auf die Tatsache, dass es dem Ausdruck in einem Codesystem nicht förderlich ist, digitale Reduktionen mit analogen Überinformationen zu strapazieren. Natürlich besteht aber trotzdem immer ein Zusammenhang zwischen codemäßig vielleicht nicht fassbarem Hintergrund und dessen Umsetzung oder Darstellung in einem bestimmten Kalkül. Man denke nur an das Schachspiel. Strategisches Vorgehen und Stil sind beim Schachspiel nicht durch die Angabe von bestimmten Zügen auflösbar, müssen aber durch irgendeinen Vorgang hinter jedem Zug stehen, bzw. sich als emergente "Wirkung" aus einer Struktur von Zügen ergeben.
Hier zeigt sich wieder ein anderer Bezug von Analog/Digital aufeinander. Wird das Analoge auf das Digitale begrifflich reduziert, oder ist das Analoge die Emergenz aus zwei- oder mehrwertigen Codestrukturen. Sollte zweiteres zutreffen, so sei wieder auf die Annahme einer Grundcodierung verwiesen: außen/innen, durchsichtig/undurchsichtig, ... die möglicherweise auf anthropologischen Voraussetzungen gründet. --Richardd 09:59, 3. Apr. 2008 (CEST)
Es ist die Frage, ob man einem der beiden Seiten den Vorrang zuteilen kann und soll, ob nicht die Strenge des Codes einerseits sowie die Kreativität des Hintergrunds andererseits sich so bedingen, dass eines nicht ohne das andere sich zu entfalten vermag. "Strenge allein ist lähmender Tod - Phantasie allein ist Geisteskrankheit" (Gregory Bateson) --Andyk 12:19, 3. Apr. 2008 (CEST)
Der von dir zitierte Bateson hat es sich ja eben zur Aufgabe gemacht, quasi könnte man das als ein Leitmotiv der Kybernetik sehen, "Geist und Natur" miteinander zu verbinden. Noch weiter ausgeholt zieht sich dieses Thema schon durch deinen Großteil der Philosophie des 20. und schon späten 19. Jahrhundert. In diesem Sinne steht die Naturwissenschaften unter dem kalkülorientierten Code und die Geisteswissenschaft unter dem Zeichen des Analogen, wenn auch, bezeichnenderweise, die Übergänge hier fließend sind.
Natürlich ist es immer problematisch überhaupt von einer Geisteswissenschaft zu sprechen. Ich beziehe mich hier einmal auf das Vorwort eines Buches von Edgar Zilsel "Die Geniereligion", das die Geisteswissenschaft als Residuum einer adeligen oder mindestens großbürgerlichen Stärke gegenüber der vom Proletariat interessiert aufgenommenen Naturwissenschaft bezeichnet. Naturwissenschaft ist hier weniger als logische oder kalkülhaft ausdifferenzierte Disziplin verstanden sondern eher als pragmatische und somit das praktische Leben betreffende Disziplin. --Richardd 13:07, 3. Apr. 2008 (CEST)