Diskussion:Motive (mse): Unterschied zwischen den Versionen

Aus Philo Wiki
Wechseln zu:Navigation, Suche
(Zum Verschwimmen)
Zeile 45: Zeile 45:
 
Wenn die Marker Senderseitig gesetzt werden muss nicht jeder der nur den Vortrag hören will selber schneiden. Was leicht zu machen wäre wenn die Sendung geschnitten wird.
 
Wenn die Marker Senderseitig gesetzt werden muss nicht jeder der nur den Vortrag hören will selber schneiden. Was leicht zu machen wäre wenn die Sendung geschnitten wird.
 
--[[Benutzer:Fehlersturm|Fehlersturm]] 09:40, 11. Mär. 2011 (UTC)
 
--[[Benutzer:Fehlersturm|Fehlersturm]] 09:40, 11. Mär. 2011 (UTC)
 +
 +
: Ich habe den Eindruck, dass aaa bbb Frau XXXs Email bewusst fehlinterpretiert. Was Frau XXX mit "Marker" meint scheint nicht der Slider zu sein, der die aktuelle Position der Wiedergabe anzeigt und mit dem man die gewünscht Position ansteuern kann. Ich glaube, ihr geht es um zusätzliche Metadaten, die die Struktur des Files feiner aufschlüsseln, und die es einem erlauben, direkt (ohne herumsuchen) die verschiedenen Komponenten (Musik, Vorträge, etc.) anzusteuern.
 +
 +
:Was Frau XXX nach meiner Interpretation verlangt ist analog dazu, zu verlangen, dass ein Vorlesungstranskript durch Überschriften gegliedert wird, auch wenn es vielleicht nicht die Intention des Lehrveranstaltungsleiters war, der Vorlesung diese oder überhaupt irgendeine Gliederung aufzuzwingen.
 +
 +
:Dass man sich von "Audio- oder Videosendungen" nicht mehr erwarten kann, als beim Fernsehen ist in zweierlei Hinsicht falsch.
 +
:Erstens gibt es durchaus die technischen Möglichkeiten, die Sendung so aufzubereiten, dass die einzelnen Teile, mit Überschriften versehen, gezielt angesteuert werden können und zusätzlich Metadaten eingebunden werden können. Siehe z.B.: [http://is.gd/9F66K Gerhard Gotz: Weg zur Philosophie (1)] Diese Möglichkeiten gibt es natürlich auch bei DVDs, bei denen man nämlich separat einzelne Kapitel bzw. Szenen ansteuern kann.
 +
:Zweitens haben die Sendungen der philosophischen Brocken und die philosophische Audiothek mit ihrem Umfeld bisher auf mich den Eindruck gemacht, auf die Bereitung eines möglichst offenen und breiten Zugangs und auf die Strukturierung durch sinnvolle Metadaten großen Wert zu legen.
 +
:Insofern wundert es mich, dass der Vorschlag von Frau XXX nicht nur nicht aufgenommen, sondern auch nicht einmal diskutiert und stattdessen eher lächerlich gemacht wird. ("Man braucht dazu nur die Maus." von aaa bbb bzw. "Diese Dame, die auf eine liebenswürdige Art und Weise noch in einer ein bisschen nach hinten versetzten Zeit ist,..." von h.h.). --[[Benutzer:PW|PW]] 21:10, 11. Mär. 2011 (UTC)
  
  

Version vom 11. März 2011, 23:10 Uhr

Zum Verschwimmen

In der letzten Vorlesung, die ich heute gehört habe, wurde eine Art von Vorlesungsanalyse durchgeführt, die mich an eine Diskussion erinnert hat, als die Idee des kollektiven Verschriftlichens der Vorlesungen von Herbert Hrachovec noch ganz neu war. Die recht kurze Diskussion findet sich auf einer Diskussionsseite zu einer Verschriftlichung von der Vorlesung 'Open Source Philosophie' von 2008. Unten versuche ich im Anschluss einen weiteren Anlauf über den Umweg der Informatik.

Damals, weil ich andere Erwartungen hatte an das, was nun Transkripte heißt und mit einem Kollegen darüber geredet habe, habe ich folgendes geschrieben:

Die starre Abbildung des Redeflusses ist - so schließe ich mich dem Kommentar meines Kollegen an - für alle Beteiligten (Vortragender, Schreiber und Leser) nicht wünschenswert. Dieses Statement ist vielleicht eine kleine Provokation - das Risiko gehe ich aber ein. Vielleicht haben andere dazu andere Vorstellungen?

Man kann das MP3 jederzeit stoppen und jedes einzelne Wort verschriftlichen. Doch das, wie an der Performance der Grasser-Abhör-Protokolle klar wird, führt zu einer gewissen Unzufriedenheit mit dem Resultat. Das was dann dort steht erfüllt nicht die Konventionen eines schriftlichen Artefaktes und ersetzt außerdem nicht den Redefluss. Man müsste ja denken, dass mit dem Feature das MP3 zu stoppen, im Gegensatz zur Situation des Live-Mitschreibens, die Möglichkeit besteht für das Argument unwichtige Dinge wegzulassen und andere hinzuzufügen. Wer will, um den offensichtlichsten Anwendungsfall dieser Verschriftlichungen herzunehmen, bei der Prüfungsvorbereitung wissen, wie am 11.03.2011 um 10:15 Uhr die Vorlesung eingeleitet wird? Vor allem, wenn man es, falls es doch nötig wird, anhören kann.

Die Explosion der dadurch entstandenen Möglichkeiten erfordert zumindest ein Nachdenken darüber, wie man mit ihnen umgeht. --Andyk 19:28, 10. Mär. 2011 (UTC)


Ich zitiere hier den Diskussionsausschnitt aus einer Mailing Liste, in dem es auch um die Diskrepanz zwischen live Ton und abstrahierbarem Gehalt geht.

Liebe Frau XXX,

Sie können den Marker selbst vorrücken. Man braucht dazu nur die Maus.

Leider können wir bei Audio- oder Videosendungen nicht mehr erwarten als
beim Fernsehen. Werbung und Vorspann muß hingenommen werden oder sonst
Verzicht.

Ich fand die Sendung von DDD hoch interessant.

Danke!

aaa bbb.


Hallo lieber DDD,

Spannendes Thema,

ich hab versucht reinzuhören, aber ich würde gerne über meine eigene Zeit
verfügen und wollte die Phasen der Ankündigung und der Musik nicht mit
langem Warten überstehen.  Könnte man Marker bei dem Player setzen? – für
Musik und die Vortragsanteile, bei denen ja nicht mal klar ist, ob sie
überhaupt kommen.

Lieben Gruß

XXX

Wenn die Marker Senderseitig gesetzt werden muss nicht jeder der nur den Vortrag hören will selber schneiden. Was leicht zu machen wäre wenn die Sendung geschnitten wird. --Fehlersturm 09:40, 11. Mär. 2011 (UTC)

Ich habe den Eindruck, dass aaa bbb Frau XXXs Email bewusst fehlinterpretiert. Was Frau XXX mit "Marker" meint scheint nicht der Slider zu sein, der die aktuelle Position der Wiedergabe anzeigt und mit dem man die gewünscht Position ansteuern kann. Ich glaube, ihr geht es um zusätzliche Metadaten, die die Struktur des Files feiner aufschlüsseln, und die es einem erlauben, direkt (ohne herumsuchen) die verschiedenen Komponenten (Musik, Vorträge, etc.) anzusteuern.
Was Frau XXX nach meiner Interpretation verlangt ist analog dazu, zu verlangen, dass ein Vorlesungstranskript durch Überschriften gegliedert wird, auch wenn es vielleicht nicht die Intention des Lehrveranstaltungsleiters war, der Vorlesung diese oder überhaupt irgendeine Gliederung aufzuzwingen.
Dass man sich von "Audio- oder Videosendungen" nicht mehr erwarten kann, als beim Fernsehen ist in zweierlei Hinsicht falsch.
Erstens gibt es durchaus die technischen Möglichkeiten, die Sendung so aufzubereiten, dass die einzelnen Teile, mit Überschriften versehen, gezielt angesteuert werden können und zusätzlich Metadaten eingebunden werden können. Siehe z.B.: Gerhard Gotz: Weg zur Philosophie (1) Diese Möglichkeiten gibt es natürlich auch bei DVDs, bei denen man nämlich separat einzelne Kapitel bzw. Szenen ansteuern kann.
Zweitens haben die Sendungen der philosophischen Brocken und die philosophische Audiothek mit ihrem Umfeld bisher auf mich den Eindruck gemacht, auf die Bereitung eines möglichst offenen und breiten Zugangs und auf die Strukturierung durch sinnvolle Metadaten großen Wert zu legen.
Insofern wundert es mich, dass der Vorschlag von Frau XXX nicht nur nicht aufgenommen, sondern auch nicht einmal diskutiert und stattdessen eher lächerlich gemacht wird. ("Man braucht dazu nur die Maus." von aaa bbb bzw. "Diese Dame, die auf eine liebenswürdige Art und Weise noch in einer ein bisschen nach hinten versetzten Zeit ist,..." von h.h.). --PW 21:10, 11. Mär. 2011 (UTC)


Die 1:1 Transposition zwischen Vortrag und Transkript schafft durch den Medienwechsel einerseits eine beträchtliche Redundanz, andererseits geht trotz der Komplettentsprechung doch Wichtiges verloren. Insofern stimmt meine Graphik nicht: Gewinne und Verluste zwischen den Medien sind nicht mathematisch darzustellen. Zum Beispiel ein bestimmter Tonfall: man müsste ihn eigens transkribieren. --anna 08:01, 11. Mär. 2011 (UTC)

MP3 und Transkript als Virtualisierungen einer Vorlesung

Da ich mich in meiner Informatik-Diplomarbeit peripher mit Virtualisierung auseinander setzen werde, möchte ich vor diesem Hintergrund die systemsprengende Möglichkeit, das MP3 zu stoppen, beleuchten und sehen wo das hinführt:

Computersysteme gibt es in unterschiedlichen Formen und Details. Rechnerplattformen bei Smartphones (ARM) sind verschieden von Rechnerplattformen bei Standard-Desktop-Computern (X86). Diese sind sozusagen das Medium, in dem man fertige Programme ausführen lassen kann. 'Fertige Programme' kommen zustande dadurch, dass der Quellcode beim Kompilieren in einer für eine Maschine abarbeitbare Menge von Instruktionen gebracht wird. Diese Instruktionen sind spezifisch für eine Rechnerplattform. Man kann ein App fürs iPhone nicht ohne Weiteres auf einem Desktop-Computer laufen lassen.

Die Informatik hat dafür aber auch eine Technik gefunden: Man erstellt einfach eine Software, die tut als wäre sie eine iPhone-Rechnerplattform. Jedoch gibt sie, wenn es darauf ankommt, die Berechnungen an den realen Desktop-Computer weiter. So erhält man gekapselt eine virtuelle Maschine, die iPhone-Instruktionen abarbeiten kann. Wie funktioniert das? Eine Technik nennt sich dynamische binäre Übersetzung, indem man konkret und je nachdem, welche Instruktionen gerade für das Ausführen eines iPhone-Programms nötig sind, diese in Befehle übersetzt, die für die reale Rechnerplattform bearbeitbar sind.

Das laufen-lassen von (virtuellen) Maschinen in Maschinen, das heute weit verbreitet ist (VMWare, XEN, diverse Emulatoren, ... sind bekannt), kann aber auch zu einem anderen Zweck verwendet werden, der Licht auf das wirft, was zwischen MP3-Aufnahme und Verschriftlichung möglich ist. Das muss man erklären, denn man mag, wenn man sich die Grafik auf der Hauptseite ansieht, darüber verblüfft sein und fragen, wie innovativ ein 1-zu-1-Verhältnis denn bitte sein kann. Die gesprochenen Aussagen werden schriftliche Aussagen. Man bekommt anscheinend nicht viel mehr Inhalt heraus. An dieser Stelle möchte ich mit dem Verhältnis von virtueller Maschine und Maschine einsetzen und nun von dem anderen Zweck schreiben, der durch das Laufen-Lassen von virtuellen Maschinen in Maschinen entsteht.

Dieses 1:1 ist zu oberflächlich gewesen. Es ist ja schon bei einem einfachen Foto irreführend. Zwar ist ein Schnappschuss die Wiedergabe einer bestimmten Situation, für welche sich eine leicht nachvollziebare Entsprechung angeben läßt, aber das Foto riecht nicht wie die Originalumgebung, ändert sich nicht wie sie etc. Allerdings bietet es in verschiedenen Umständen alles, was man möchte, also z.B. ein Gipfelfoto: wir waren da oben. In meiner Graphik geht es nur um die Übertragung philosophischer Inhalte und z.B. nicht um den Wienerischen Dialekt. Die Medienspezifika sind ausgeblendet. Damit habe ich das Thema der Vorlesung unnötig langweilig gemacht :-) Es geht ja (auch) darum, wie sich Inhalte im Wechsel der Medien ändern. --anna 08:18, 11. Mär. 2011 (UTC)

Dieser Zweck ist System-Analyse. Virtuelle Maschinen sind gläserner, da sie Software sind, obwohl sie für die Programme, die in der virtuellen Maschine laufen, absolute Endpunkte und Hardware sind. So lässt sich der Zustand dieser Maschinen leicht speichern, verwalten, verändern, analysieren oder sogar auf eine andere Maschine tranferieren. Damit wird z.B. Reverse-Engineering, Treibertests, Fehlersuche und Testen erleichtert. Aus dieser Sicht macht es sogar Sinn, wenn die reale und die virtuelle Rechnerplattform vom gleichen Typ sind (z.B.: einen Desktop-PC im Desktop-PC laufen lassen). Programme, die eine Funktionalität für den Benutzer bereitstellen, können sowohl auf der realen als auch auf der virtuellen Maschine laufen und die Funktionalität für den Benutzer wird sich nicht ändern. Doch der Vorgang der Vermittlung der beiden Maschinen durch binäre Übersetzung eröffnet neue Schnittstellen für Benutzer und Programmiererinnen, die es z.B. erlauben, ein Programm aus einer ganz anderen Perspektive zu sehen; und zwar in einer Live-Performance aber trotzdem mit der Möglichkeit zu stoppen und sich den Momentanzustand genauer anzusehen.

Als Beleg, dass das in der Informatik wirklich erforscht wird, ein kurzer Abschnitt aus einem Artikel, in dem Virtualisierung für Systemanalyse benutzt wird:

Conversion from x86 to LLVM gives rise to complex symbolic expressions. S2E sees a lower level representation of the programs than what would be obtained by compiling source code to LLVM (as done in KLEE): it actually sees the code that simulates the execution of the original program on the target CPU architecture. (Quelle: S²E: A Platform for In-Vivo Multi-Path Software Analysis)

Unabhängig von den technischen Details und Terminologien: Durch Virtualisierung kann man soweit gehen, sich die Mechanik anzusehen die die Simulation ermöglicht. Oder anders und oberflächlich gesagt: Welche Schritte werde für das konkret laufende Programm gemacht, um den Bruch zwischen einer virtuellen und einer realen Maschine zu überwinden? Lässt sich da etwas optimieren? Verursacht das Programm Schaden am System?

Während diese Frage sich auf der technischen Ebene abspielt und viel mit Automatismen zu tun hat, kann man sich im Verhältnis zwischen gespeichertem Vortrag im MP3-Format und Trankript fragen, wie man beim Anfertigen einer Verschriftlichung diesen Bruch zwischen Ton und Text konkret handhabt und den Medienwechsel dafür benutzen, den Inhalt von unterschiedlichen Perspektiven zu betrachten und besser kennen zu lernen.

Ich habe versucht, technische Details nicht zu exzessiv darzulegen (und kenne auch nicht alle technischen Details bei der Rechner-Virtualisierung) und zur Diskussion von 2008 und den obigen Überlegungen eine Assoziation direkt aus der Informatik-Forschung hinzuzufügen. Bin auf Kommentare gespannt. --Andyk 19:28, 10. Mär. 2011 (UTC)