Diskussion:Motive (mse): Unterschied zwischen den Versionen

Aus Philo Wiki
Wechseln zu:Navigation, Suche
K (fix grammar mistake)
K (Zum Verschwimmen: comment)
Zeile 8: Zeile 8:
 
Die Explosion der dadurch entstandenen Möglichkeiten erfordert zumindest ein Nachdenken darüber, wie man mit ihnen umgeht. --[[Benutzer:Andyk|Andyk]] 19:28, 10. Mär. 2011 (UTC)
 
Die Explosion der dadurch entstandenen Möglichkeiten erfordert zumindest ein Nachdenken darüber, wie man mit ihnen umgeht. --[[Benutzer:Andyk|Andyk]] 19:28, 10. Mär. 2011 (UTC)
  
== MP3 und Trankript als Virtualisierungen einer Vorlesung ==
+
----
 +
 
 +
Ich zitiere hier den Diskussionsausschnitt aus einer Mailing Liste, in dem es auch um die Diskrepanz zwischen live Ton und abstrahierbarem Gehalt geht.
 +
 
 +
<pre>
 +
Liebe Frau XXX,
 +
 
 +
Sie können den Marker selbst vorrücken. Man braucht dazu nur die Maus.
 +
 
 +
Leider können wir bei Audio- oder Videosendungen nicht mehr erwarten als
 +
beim Fernsehen. Werbung und Vorspann muß hingenommen werden oder sonst
 +
Verzicht.
 +
 
 +
Ich fand die Sendung von DDD hoch interessant.
 +
 
 +
Danke!
 +
 
 +
aaa bbb.
 +
 
 +
 
 +
Hallo lieber DDD,
 +
 
 +
Spannendes Thema,
 +
 
 +
ich hab versucht reinzuhören, aber ich würde gerne über meine eigene Zeit
 +
verfügen und wollte die Phasen der Ankündigung und der Musik nicht mit
 +
langem Warten überstehen.  Könnte man Marker bei dem Player setzen? – für
 +
Musik und die Vortragsanteile, bei denen ja nicht mal klar ist, ob sie
 +
überhaupt kommen.
 +
 
 +
Lieben Gruß
 +
 
 +
XXX
 +
</pre>
 +
 
 +
Die 1:1 Transposition zwischen Vortrag und Transkript schafft durch den Medienwechsel einerseits eine beträchtliche Redundanz, andererseits geht trotz der Komplettentsprechung doch Wichtiges verloren. Insofern stimmt meine Graphik nicht: Gewinne und Verluste zwischen den Medien sind nicht mathematisch darzustellen. Zum Beispiel ein bestimmter Tonfall: man müsste ihn ''eigens'' transkribieren. --[[Benutzer:Anna|anna]] 08:01, 11. Mär. 2011 (UTC)
 +
 
 +
== MP3 und Transkript als Virtualisierungen einer Vorlesung ==
 
Da ich mich in meiner Informatik-Diplomarbeit peripher mit Virtualisierung auseinander setzen werde, möchte ich vor diesem Hintergrund die systemsprengende Möglichkeit, das MP3 zu stoppen, beleuchten und sehen wo das hinführt:
 
Da ich mich in meiner Informatik-Diplomarbeit peripher mit Virtualisierung auseinander setzen werde, möchte ich vor diesem Hintergrund die systemsprengende Möglichkeit, das MP3 zu stoppen, beleuchten und sehen wo das hinführt:
  

Version vom 11. März 2011, 09:01 Uhr

Zum Verschwimmen

In der letzten Vorlesung, die ich heute gehört habe, wurde eine Art von Vorlesungsanalyse durchgeführt, die mich an eine Diskussion erinnert hat, als die Idee des kollektiven Verschriftlichens der Vorlesungen von Herbert Hrachovec noch ganz neu war. Die recht kurze Diskussion findet sich auf einer Diskussionsseite zu einer Verschriftlichung von der Vorlesung 'Open Source Philosophie' von 2008. Unten versuche ich im Anschluss einen weiteren Anlauf über den Umweg der Informatik.

Damals, weil ich andere Erwartungen hatte an das, was nun Transkripte heißt und mit einem Kollegen darüber geredet habe, habe ich folgendes geschrieben:

Die starre Abbildung des Redeflusses ist - so schließe ich mich dem Kommentar meines Kollegen an - für alle Beteiligten (Vortragender, Schreiber und Leser) nicht wünschenswert. Dieses Statement ist vielleicht eine kleine Provokation - das Risiko gehe ich aber ein. Vielleicht haben andere dazu andere Vorstellungen?

Man kann das MP3 jederzeit stoppen und jedes einzelne Wort verschriftlichen. Doch das, wie an der Performance der Grasser-Abhör-Protokolle klar wird, führt zu einer gewissen Unzufriedenheit mit dem Resultat. Das was dann dort steht erfüllt nicht die Konventionen eines schriftlichen Artefaktes und ersetzt außerdem nicht den Redefluss. Man müsste ja denken, dass mit dem Feature das MP3 zu stoppen, im Gegensatz zur Situation des Live-Mitschreibens, die Möglichkeit besteht für das Argument unwichtige Dinge wegzulassen und andere hinzuzufügen. Wer will, um den offensichtlichsten Anwendungsfall dieser Verschriftlichungen herzunehmen, bei der Prüfungsvorbereitung wissen, wie am 11.03.2011 um 10:15 Uhr die Vorlesung eingeleitet wird? Vor allem, wenn man es, falls es doch nötig wird, anhören kann.

Die Explosion der dadurch entstandenen Möglichkeiten erfordert zumindest ein Nachdenken darüber, wie man mit ihnen umgeht. --Andyk 19:28, 10. Mär. 2011 (UTC)


Ich zitiere hier den Diskussionsausschnitt aus einer Mailing Liste, in dem es auch um die Diskrepanz zwischen live Ton und abstrahierbarem Gehalt geht.

Liebe Frau XXX,

Sie können den Marker selbst vorrücken. Man braucht dazu nur die Maus.

Leider können wir bei Audio- oder Videosendungen nicht mehr erwarten als
beim Fernsehen. Werbung und Vorspann muß hingenommen werden oder sonst
Verzicht.

Ich fand die Sendung von DDD hoch interessant.

Danke!

aaa bbb.


Hallo lieber DDD,

Spannendes Thema,

ich hab versucht reinzuhören, aber ich würde gerne über meine eigene Zeit
verfügen und wollte die Phasen der Ankündigung und der Musik nicht mit
langem Warten überstehen.  Könnte man Marker bei dem Player setzen? – für
Musik und die Vortragsanteile, bei denen ja nicht mal klar ist, ob sie
überhaupt kommen.

Lieben Gruß

XXX

Die 1:1 Transposition zwischen Vortrag und Transkript schafft durch den Medienwechsel einerseits eine beträchtliche Redundanz, andererseits geht trotz der Komplettentsprechung doch Wichtiges verloren. Insofern stimmt meine Graphik nicht: Gewinne und Verluste zwischen den Medien sind nicht mathematisch darzustellen. Zum Beispiel ein bestimmter Tonfall: man müsste ihn eigens transkribieren. --anna 08:01, 11. Mär. 2011 (UTC)

MP3 und Transkript als Virtualisierungen einer Vorlesung

Da ich mich in meiner Informatik-Diplomarbeit peripher mit Virtualisierung auseinander setzen werde, möchte ich vor diesem Hintergrund die systemsprengende Möglichkeit, das MP3 zu stoppen, beleuchten und sehen wo das hinführt:

Computersysteme gibt es in unterschiedlichen Formen und Details. Rechnerplattformen bei Smartphones (ARM) sind verschieden von Rechnerplattformen bei Standard-Desktop-Computern (X86). Diese sind sozusagen das Medium, in dem man fertige Programme ausführen lassen kann. 'Fertige Programme' kommen zustande dadurch, dass der Quellcode beim Kompilieren in einer für eine Maschine abarbeitbare Menge von Instruktionen gebracht wird. Diese Instruktionen sind spezifisch für eine Rechnerplattform. Man kann ein App fürs iPhone nicht ohne Weiteres auf einem Desktop-Computer laufen lassen.

Die Informatik hat dafür aber auch eine Technik gefunden: Man erstellt einfach eine Software, die tut als wäre sie eine iPhone-Rechnerplattform. Jedoch gibt sie, wenn es darauf ankommt, die Berechnungen an den realen Desktop-Computer weiter. So erhält man gekapselt eine virtuelle Maschine, die iPhone-Instruktionen abarbeiten kann. Wie funktioniert das? Eine Technik nennt sich dynamische binäre Übersetzung, indem man konkret und je nachdem, welche Instruktionen gerade für das Ausführen eines iPhone-Programms nötig sind, diese in Befehle übersetzt, die für die reale Rechnerplattform bearbeitbar sind.

Das laufen-lassen von (virtuellen) Maschinen in Maschinen, das heute weit verbreitet ist (VMWare, XEN, diverse Emulatoren, ... sind bekannt), kann aber auch zu einem anderen Zweck verwendet werden, der Licht auf das wirft, was zwischen MP3-Aufnahme und Verschriftlichung möglich ist. Das muss man erklären, denn man mag, wenn man sich die Grafik auf der Hauptseite ansieht, darüber verblüfft sein und fragen, wie innovativ ein 1-zu-1-Verhältnis denn bitte sein kann. Die gesprochenen Aussagen werden schriftliche Aussagen. Man bekommt anscheinend nicht viel mehr Inhalt heraus. An dieser Stelle möchte ich mit dem Verhältnis von virtueller Maschine und Maschine einsetzen und nun von dem anderen Zweck schreiben, der durch das Laufen-Lassen von virtuellen Maschinen in Maschinen entsteht.

Dieser Zweck ist System-Analyse. Virtuelle Maschinen sind gläserner, da sie Software sind, obwohl sie für die Programme, die in der virtuellen Maschine laufen, absolute Endpunkte und Hardware sind. So lässt sich der Zustand dieser Maschinen leicht speichern, verwalten, verändern, analysieren oder sogar auf eine andere Maschine tranferieren. Damit wird z.B. Reverse-Engineering, Treibertests, Fehlersuche und Testen erleichtert. Aus dieser Sicht macht es sogar Sinn, wenn die reale und die virtuelle Rechnerplattform vom gleichen Typ sind (z.B.: einen Desktop-PC im Desktop-PC laufen lassen). Programme, die eine Funktionalität für den Benutzer bereitstellen, können sowohl auf der realen als auch auf der virtuellen Maschine laufen und die Funktionalität für den Benutzer wird sich nicht ändern. Doch der Vorgang der Vermittlung der beiden Maschinen durch binäre Übersetzung eröffnet neue Schnittstellen für Benutzer und Programmiererinnen, die es z.B. erlauben, ein Programm aus einer ganz anderen Perspektive zu sehen; und zwar in einer Live-Performance aber trotzdem mit der Möglichkeit zu stoppen und sich den Momentanzustand genauer anzusehen.

Als Beleg, dass das in der Informatik wirklich erforscht wird, ein kurzer Abschnitt aus einem Artikel, in dem Virtualisierung für Systemanalyse benutzt wird:

Conversion from x86 to LLVM gives rise to complex symbolic expressions. S2E sees a lower level representation of the programs than what would be obtained by compiling source code to LLVM (as done in KLEE): it actually sees the code that simulates the execution of the original program on the target CPU architecture. (Quelle: S²E: A Platform for In-Vivo Multi-Path Software Analysis)

Unabhängig von den technischen Details und Terminologien: Durch Virtualisierung kann man soweit gehen, sich die Mechanik anzusehen die die Simulation ermöglicht. Oder anders und oberflächlich gesagt: Welche Schritte werde für das konkret laufende Programm gemacht, um den Bruch zwischen einer virtuellen und einer realen Maschine zu überwinden? Lässt sich da etwas optimieren? Verursacht das Programm Schaden am System?

Während diese Frage sich auf der technischen Ebene abspielt und viel mit Automatismen zu tun hat, kann man sich im Verhältnis zwischen gespeichertem Vortrag im MP3-Format und Trankript fragen, wie man beim Anfertigen einer Verschriftlichung diesen Bruch zwischen Ton und Text konkret handhabt und den Medienwechsel dafür benutzen, den Inhalt von unterschiedlichen Perspektiven zu betrachten und besser kennen zu lernen.

Ich habe versucht, technische Details nicht zu exzessiv darzulegen (und kenne auch nicht alle technischen Details bei der Rechner-Virtualisierung) und zur Diskussion von 2008 und den obigen Überlegungen eine Assoziation direkt aus der Informatik-Forschung hinzuzufügen. Bin auf Kommentare gespannt. --Andyk 19:28, 10. Mär. 2011 (UTC)