Zusammenfassung der einzelnen Vorlesungen (tphff2015)

Aus Philo Wiki
Version vom 1. Oktober 2015, 14:36 Uhr von Anna (Diskussion | Beiträge) (format)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu:Navigation, Suche

Benjamin Steinhauser: Protokolle der Vorlesung

Die folgende Zusammenfassung von B. Steinhauser ist von einem am PC formatierten Dokument in das Wiki übernommen. Die Formatierung ist noch nicht richtig übertragen. Work in progress. --anna (Diskussion) 14:36, 1. Okt. 2015 (CEST)


VO-L Technik und Philosophie des freien Forschungsaustausches (SS_15) Herbert Hrachovec


Hrachovec illustrierte die gesprochenen Inhalte oft visuell über Beamer. Dieses Dokument gibt aber ausschließlich die akustischen Inhalte anhand der audiothek-Mitschnitte wieder. Wegen dieser Einseitigkeit kann es hin und wieder zu Verständnisproblemen kommen. Wo es ging, wurden aber die entsprechenden Links hinzugefügt. V.a. der Abschnitt über „Wissen und Technik“ ist eher lückenhaft. Das Dokument ist hinsichtlich der Punkte strukturiert, die unter ‚Aufbau/Inhalte der Vorlesung‘ zu finden sind. Die Überschriften zu den jeweiligen Vorlesungen beziehen sich ausschließlich auf die konkreten Inhalte der entsprechenden Vorlesung. http://philo.at/wiki/index.php/Technik_und_Philosophie_des_freien_Forschungsaustausches_(Vorlesung_Hrachovec,_SS_2015)


1. VO, 19.03.2015 Einführung/Orientierung: Entwicklung der open culture/source Bewegung

Grundfrage der Vorlesung

Wie lässt sich freier Forschungsaustausch in Verbindung mit moderner Computertechnik denken, wie sieht dieses Verhältnis – jenes zwischen freiem Forschungsaustausch und Technik – genau aus? Ermöglicht/Impliziert freies Internet auch freien Forschungsaustausch?

Aufbau/Inhalte der Vorlesung

  1. Orientierung im Themenfeld
  2. Deklarationen: 1. Budapester Erklärung, 2. Berliner Erklärung (open access [OA])
  3. Mögliche Probleme von OA – mit Beispielen: itunes university, journal of philosophy and theology, av-akademikerverlag
  4. Philosophische Hintergrundbetrachtungen zum Verhältnis von:
  5. Wissen & Technik
  6. Wissen & Recht: Eigentum an Wissen > intellectual property


1. Orientierung im Themenfeld

„Steinzeit“ (ca. 2000): Aufkommen des webs, best. Protokolle, des filesharing als digitale Ressourcen ermöglichten so etwas wie ein „gläsernes Klassenzimmer“, d.h. die prinzipielle Möglichkeit eines freien Bildungszugangs. Das bedeutet eine neue Art der Organisation der Lehre, hat aber auch phil. Implikationen. > Technik fungiert hier also als Lernverstärker: diese neu herbeigeführte soziale Konfiguration ermöglichte erstmals einen Rückkoppelungseffekt betreffend die Lerninhalte. Heute treten solche Lernverstärker in Form von Lernplattformen wie Moodle und MOOC auf. Das Web wird hier als unerschöpfliche Informationsquelle für LVs genutzt; dabei braucht es eine Plattform als Bündelung, Schirmung, (Re-)Konfiguration dieser Inhalte. (*In Stanford war dieses Projekt höchst erfolgreich. Ein Professor gründete sogar eine eigene Firma, um die Informationen Personen zur Verfügung zu stellen, die sonst keinen Zugang zu diesen Eliteunis hätten. Die Eliteunis drängen auf die Entwicklung dieser Technologien, um im Ranking vorne zu sein. Außerdem gibt es die Möglichkeit, bestimmte Zertifikate über die Partizipation an dieser Technologie zu bekommen, die Jobzugang schaffen. Wird darüber hinaus auch äußerst interessant für kommerzielle Zwecke: Kommerzialisierung des Lehrangebots und Kooperation mit Firmen.*) > Im Bereich des Forschungsaustauschs verhielt es sich zunächst eher pionierhaft. Mittlerweile werden diese Vorgänge aber auch immer interessanter für kommerzielle Zwecke: Produktentwicklung

zu open culture: (ähnelt dem open access Konzept [OA] von heute) kommunikativ-demokratische Absichten; entstand wiederum aus der open source Bewegung/Entwicklung Entwicklung: > IBM hatte in 70er, 80ern die Vormachtstellung. Sie begingen aber den Fehler zu glauben, in Zukunft würde es pro Land nur ganz wenige (10?) Großrechner (sehr teuer) geben; auf jeden Fall keine privaten Computer. > Apple produzierten dann erstmals Computer, die privat nutzbar waren (Vorsprung für apple). Apple hatte die Hardware und die Software (Betriebssystem) synchronisiert – auf apple Hardware liefen nur apple Programme. > In Asien (90er) bauten sie erstmals unabhängige Hardware. Massenproduktion von PCs erstmals so möglich. Es war nur noch die Frage, welches Betriebssystem für diese Hardware geeignet war? > MS DOS von Bill Gates stellte IBM ein Betriebssystem zur Verfügung. ABER es war auch für diese asiatischen Firmen lizensiert. Vorteil für diese: diese Firmen produzierten nämlich wesentlich billigere PCs. Dieser Schachzug verhalf Gates so auch zu Reichtum, da eben Monopolstellung. IBM wollte daraufhin ein eigenes Betriebssystem (BS) lancieren, aber es war bereits zu spät. Zwei Fehler von IBM: 1. falsche, zu unhandliche Hardware, 2. Leichtsinn beim Lizenzanspruch von MS DOS

zu open source selbst – zwei Entwicklungslinien: 1. Richard Stallman: früher Programmierer mit Unix (anderes BS für diese ersten großen Computer; Programmsprache war ‚C‘); Story: Stallmans HP-Drucker war kaputt. HP wollte auf Anfrage den Programmcode aber nicht hergeben. Er erkannte so, dass es juridische Mittel geben muss, die es verhindern, dass Software nicht weiter bearbeitet werden darf bzw. Eigentum einer Firma bleibt. Er sorgte dann dafür, dass die Programme für Unix unter freier GNU – General Public license > free Software (copy left Lizenz: man darf es nur dann verwenden, wenn die vorgenommen Veränderungen, andere Leute auch nutzen können) laufen, damit leichtes, freies Fixen von Fehlern möglich ist und nicht von Firmen für sich beansprucht und in Geld umgesetzt werden kann. Programmierung: Programmiersprache wird durch einen Compiler geschickt und dieser setzt sie in Maschinensprache um. C-Compiler übersetzen Programme dieser Sprache in die Unix-Maschinensprache. Stallmann hat diesen C-Compiler geschrieben, der es jeden ermöglichte, eigene, Unix-fähige Programme zu schreiben.

2. Stallman wollte neben dem Compiler auch ein freies BS schreiben – so wie MS DOS. Dies ist ihm aber nicht gelungen. Es gab nur einen freien Generator für Unix-Programme – aber kein gesamtes System. Linus Torvalds benutzte den Systemkern Minix als Basis für die Entwicklung eines leistungsfähigen, Unix-fähigen Betriebssystems; es hieß Linux. Nun gab es eine freie, offene Alternative im Umgang mit PCs! Linux wurde ab dann in der Community als Gemeinschaftsprojekt frei weiterentwickelt. Linux wurde ein leistungsfähigeres BS als MS DOS – und das durch freie, open source Entwicklung. (Konzept interessant für Kommerzialisierung!) (* vgl. http://philo.at/ilias/ilias.php?baseClass=ilSAHSPresentationGUI&ref_id=103 *) > Verbindung/Analogie mit wissenschaftlichen Forschung: ohne Anspruch auf Entlohnung wird geforscht.

2. VO, 26.03.2015 Fortsetzung: Geschichte und Motivation der open source Bewegung

> Möglichkeit des Neuüberdenkens der wirtschaftlichen Bedingungen durch die Entwicklung von Linux. IBM hat viel Geld eben genau in Linux investiert und so das open source Projekt unterstützt – obwohl IBM gewusst hat, dass die Entwicklungen von Linux nach wie vor frei zur Verfügung stehen werden (GNU-Lizenz)! Das Kalkül von IBM: die Teilnahme am Linux Projekt würde neue Möglichkeiten für ihre Großrechner schaffen, was sich für sie rentieren sollte. > Üblicherweise müssen fixe Betriebssysteme gekauft werden, sonst veraltet: z.B. immer neue, teure Windows-Updates. Diese Logik gilt im open source Bereich NICHT. Dies hat rechtliche Implikationen. (Es gibt hier kein Firmenmodell mit organisierter Unternehmensstruktur, Gewinnorientierung, Schweigepflicht, etc.) dagegen gilt für open source: Kooperation, keine Schweigepflicht, Offenheit, etc.

Aber: Warum wollen Leute unter diesen Bedingungen – d.h. gratis – Programme entwickeln? 1. Versuch: kreativ-romantisch, idealistisch motiviert (eher nein!) 2. Versuch: Wert in der Community wird erhöht. Bessere Chancen bei Bewerbungen. Werden übernommen von z.B. Google – und bekommen im Vertrag mit so einer Firma aber garantiert, noch offen arbeiten zu können.

Diese Entwickl. ist ein Indikator für eine postindustrielle Gesellschaft: keine materiell gebundenen Produktionsabläufe, sondern immaterielle Informationen relevant (Big Data, Überwachung, Unterhaltungselektronik, etc.) VT: Produktivität: Daten werden nicht verbraucht. > Verstärkung/Dramatisierung konventioneller Wissensteilung (Bibs) möglich. Dadurch kann es auch gelingen, Rivalität betreffend den Zugang zu Information abzubauen. Aber: Wie verändert sich die Praxis der Verteilung von Wissensgüter dadurch? NT: Monopolisierung der Verlage. Verlage sind nicht mehr notwendig, da sie so überbrückt werden können. Deren Publikationstätigkeit ist nicht mehr nötig. Neg. Auswirkungen für die bisherige Infrastruktur (Verlage)! V.a. Musik, aber auch Buchverlage. Nur noch große Verlage können das abfedern und überleben. Sie habe so so viel Macht, Unis zwingen zu können, nicht notwendige Publikationen auch abonnieren zu müssen (journal crisis). Unverschämtheit der Verlage. > Frage nach Legitimität, Reservierung der Inhalte.

> Diese Entwicklungen der postind. Gesell. führten logischerweise zu einer Hinwendung zu offenem Wissensaustausch. Berliner Deklaration als Initialzündung der open access Bewegung: Infrastruktur/Technik ist vorhanden + Wissenschaftler bekommen erstmals kein Geld für Arbeit; sie werden belohnt, indem sie durch ihre Arbeiten bekannt werden. Ziel der Deklaration war es damit, wiss. Erkenntnis frei zugänglich zu machen. (s. u.)

Zeitgenössische, praktische Beispiele für open access: > Elektronisch archivierte Theorie – wie das eigene Projekt von Prof. Hrachovec sammelpunkt.philo.at Archiv von Zeitschriftenbeiträgen, Monographien, etc. Sie basiert auf dem open access Prinzip; wie ein Museum oder Depot, für das nicht extra Arbeiten geschrieben werden. Die Seite arbeitet mit sog. Meta-Daten: sie schaffen eine Zugänglichkeit, die geregelt und global einheitlich ist. Die Meta-Daten sorgen für eine umfangreiche Kennzeichnung des Artikels und müssen immer zusammen mit ihm verfügbar sein bzw. angegeben werden. Die Meta-Daten werden beim Einreichen eines Artikels generiert. Durch die Meta-Daten sind die Artikel über alle einzelnen, kleineren Sammelstellen (z.B. sammelpunkt.philo.at) verfügbar. Der Standard der Meta-Daten ist mit Google Scholar kompatibel und kann schnell verlinkt werden.

> Was bringt dieses freie Zur-Verfügung-Stellen von eigener wiss. Leistung für den/die Einreichende(n)? Unter welchen Bedingungen darf eine Person auf diese Weise eine Arbeit veröffentlichen? Verlage sagen: wenn ein Artikel bei uns veröffentlicht wird, stoppen wird die Zusammenarbeit, wenn man es dann auch frei über open access veröffentlicht (Drohargument). Juridische Sachlage: Verlage sind mit freier Veröffentlichung einverstanden, wenn sich der Artikel im Zustand vor dem Peer-Review (Lektorat) befindet. Oder auch: nach gewisser Zeit, z.B. halbes Jahr.

Die rechtliche Verantwortung für die Veröffentlichung trägt die Institution, die den Beitrag zuerst veröffentlicht hat. Die Verantwortung wird also vom open access Projekt abgegeben und vorgelagert. Die inhaltliche Verantwortung hängt vom open access Projekt ab. Betreffend sammelpunkt wird natürlich nicht alles akzeptiert.


3. VO, 30.04.2015 Kernideen des „offenen Zugangs“ + die Budapester Erklärung (Der Prof. spricht zu Beginn kurz über zotero.org)

Kernideen des „offenen Zugangs“

Amy Kapczynski: Access to knowledge in the age of intellectual property http://philo.at/wiki/index.php/Zugang_zum_Wissen_(tphff2015)

> Open access meint, wir leben in einer Wissensgesellschaft. Diese grenzt sich ab gegenüber vorherigen Gesellschaften – z.B. Industriegesellschaft. Bsp. I Für Ind.-Gesell: die Kämpfe im Osten der Ukraine nahmen keinen Einfluss auf die Hochöfen, sowohl die Ukrainer als auch die Separatisten setzten sich ein, dass sie weiter liefen. In der Informations- Wissensgesellschaft muss hingegen verhindert werden, dass z.B. Server nicht heruntergefahren werden (Stromausfall). Dies hätte Einfluss auf: z.B. die Börse (> Bankenwesen) >> Schaden da wie dort!

Informationsbestand (Unendlichkeit > nicht rivalisierender Charakter) <=> Materialbestand (Einmaligkeit) Informationsbestand setzt eigentlich nur kognitive Fähigkeiten (wie Leuchtturm, nicht rivalisierend) voraus. (Vgl. dazu den rivalisierenden Charakter bei auf Materialität angewiesen Informationsgegenständen) > Nach Kapczyinski haben die Menschen in dieser Wissensgesellschaft die Aufgabe, die Informationen zu teilen und möglichst allen zur Verfügung zu stellen. Dies führt nach ihr dann auch zu einem neuen Wirtschaftssystem, neuer Regierungsweise und ganz allgemein: neuem Gesellschaftssystem.

Geschichte > Vorm Buchdruck: Erinnerung hat hohe Bedeutung. Wenige, nur einzelne Ausgaben. Kein Vergleich möglich. > Ab Buchdruck (15. Jhdt.): Vergleich nun möglich. Inhalt wird abstrakt und existiert überzeitlich, ist nicht mehr der Kontingenz ausgeliefert. Buchtechnische Verobjektivierung. > Mit Internetkommunikation wurde diese Verobj. (> Gleichzeitigkeit der Informat.-vorhandenheit) potenziert.

Vor ca. 15 Jahren war es noch nicht möglich, ein Buch 100 x zu vervielfältigen und es zu verbreiten. Weil es technisch nicht möglich war, war es rechtlich nicht sichtbar bzw. strafbar. Noch beschränkte Möglichkeiten. Jetzt ist es, durch die neue Technik, aber möglich! Social Control notwendig, denn es muss nach Meinung einiger Akteure verhindert werden, dass andere es gratis verbreiten (filesharing, napster). > Neue rechtliche Setzungen notwendig, um mit der techn. Verbreitungsmöglichkeit Schritt halten zu können. Aber: Die Tätigkeit – solche neuen Gesetzte zu schreiben – ist sehr schwierig, denn man muss die neuen technischen Möglichkeiten erst in rechtliche Sprache übersetzten (Experten) > neue Art von Gouvernance gefordert! > So wird jetzt dieser nicht rivalisierende Charakter der geistigen Informationen zum Problem und Kampfplatz, denn plötzlich können diese Informationen unendlich weiter kopiert werden. > intellectual property law

2. Deklarationen, die beanspruchen ‚access to knowledge‘ zu garantieren: „Einfach offen“

Die Budapester Erklärung (2002): (genauer: http://philo.at/wiki/index.php/Deklarationen_(tphff2015) )

Die Open society foundation bzw. Budapester Erklärung ist entstanden im Zusammenhang mit den Entwicklungen rund um den Fall des Eisernen Vorhangs und dem Vorhaben, die neue Technologie in die alte wiss. Tradition (Ein Buch ist eine Ansage, eine One-Man-Show; wiss. Zeitschriften jedoch führen einen Meta-Diskurs über Bücher. Allein die Personen, die in wiss. Zeitschriften schrieben, taten dies ohne Bezahlung. Musste subventioniert werden; & dies wurde gerne getan, denn man war sich bewusst, dass sich diese Erkenntnisse pos. auf die Wirtschaft auswirken.) einzuführen. (These: Flüchtlingsbewegungen in Afrika aufgrund von mangelnder Bildung > keine Arbeitsplätze). Publizieren war immer schon das Mittel, um auf sich aufmerk. zu machen & später besser bezahlt zu werden. > Das Internet sorgt heute für die Möglichkeit dieses freien Zugangs zu wiss. Erkenntnissen. Regulation hier: es gibt ein Auswahlverfahren in den Journals. Peers/Gutachter (Wissenschaftler) kontrollieren dies und geben sie frei (vgl. Sammelpunkt). Aber: Diese neue Offenheit hat keinen interessiert (Eigenerfahrung des Professors mit sammelpunkt). Ursache: Social control & Gouvernance > Frage nach Verlagswesen, Angst vor Plagiate; > zu extreme Offenheit.

Deswegen: sinnvolle Strategien, um zu open access zu kommen:

(1) green open accesss archive: Bevor der Beitrag in das Begutachtungsverfahren eines Verlags geht, kann der Veröffentlichen-Wollende einen Pre-Print Artikel auf einer open access Plattform schalten. (parallel) (In DEU hat man das Recht, ein Jahr nach der Erstveröffentlich. es in einem green-archive zu veröffentlichen.) (2) golden open access archive: Die Zeitschrift, in der es primär veröffentlicht wird, ist selbst schon nach dem Prinzip von open access organisiert. > V.a. bei nur online Zeitschriften/Journalen, denn keine Druckkosten.

> Situation heute: Statt dass die Artikel in die grünen Archive gesteckt worden sind, forcierte man lieber open access Journale (auch materielle!), jedoch wollten die Verlage für dieses Entgegenkommen Bezahlung; das Geld holten sie bei den AutorInnen ein – nicht bei den potentiellen LeserInnen. Die Unis und die „wissenschaftliche Community“ sind angewiesen auf diese Artikel und Veröffentlichungen der AutorInnen und so kommen am Ende die Unis und wissenschaftlichen Institute für die Kosten auf.

4. VO, 07.05.2015 Die Berliner Erklärung + Open Access als Impactverstärkung

Berliner Erklärung (2003; genauer: Link oben)

Geht auf den praktischen Nutzen des jetzt neu möglichen Umgangs mit dem kulturellen Erbe ein. Thematisiert den Wandel des wissenschaftlichen Publizierens. (*Gouvernance (Social Control): Infrastruktur der wiss. Tätigkeit, die zu schriftl. Resultaten (Publikationen) führt. Alte Governance: Verlage wie Meiner, etc.: 150-300/400 Stück ist in der Regel die Anzahl der Erstauflagendrucke bei Büchern. Sie drucken dann relativ unproblematisch und von sich aus, wenn sie vom Inhalt überzeugt sind. Bei kleineren Verlagen muss man entweder selbst dazu zahlen oder um Förderungen ansuchen.*)

Die Berliner E. nennt Momente der Spannung, die die Implementierung der Ziele beeinträchtigen könnten:

> Interne Spannung zwischen althergebracht (Wissenschaft soll so bleiben; Redlichkeitsmotiv) <=> modern (technische Reproduzierbarkeit als Chance). Die neuen Mittel sollen Wiss. als solche (Kultur) nicht verändern. (*Bsp.: Goethe-Haus in Weimar (damals führende Kulturstadt) sollte redupliziert werden. Motive: (1) den Denkmalschutz betreffenden Grund; (2) Zeitalter der techn. Reproduzierbarkeit (ins Unendliche) von Kunstwerken. Oder: Hallstadt in China*)

> Spannung zwischen der Einzigartigkeit/Singularität von Kulturgütern <=> der jetzigen Mögl., sie zu kopieren.

Auch bei Wissenschaft: originale, intrinsisch motivierte „Suche nach der Wahrheit“; Verlage/Universitäten nehmen den Standpunkt einer Hybridfassung von Kommerz und Wiss. ein; befinden sich in einem gewissen Dilemma.

Voraussetzungen von open access nach der BE:

1. Urheber müssen Inhalte allen zur freien Nutzung zur Verfügung stellen. Bei Bearbeitung jener Inhalte durch die Nutzer, muss der Urheber angegeben werden. (vgl. GNU-Lizenz > copy left; vgl. auch creative commons Lizenzen: sie geben Auskunft, was mit open access Dokumenten passieren darf.) Wissenschaftliches Arbeitswesen (Teile > Zitat) unterscheidet sich vom Patentwesen (Ganzes), denn es sollen ja gerade einzelne Teile verwendet werden dürfen; das Ganze ist eher uninteressant. Wenn dann auf dem Ganzen auch noch eine Patentlizenz liegt, wird der wiss. Diskurs unterdrückt. (vgl. auch libre open access) Ausdrucke dürfen nur begrenzt getätigt werden! (Unterstell.: keine Interaktion zw. den beiden Methoden mögl)

2. Es muss betreffend die Veröffentlichung ein Standardformat: pdf, epub geben. Es muss von einer anerkannten wiss., öffentlichen, oder anderen etablierten Institution betrieben und gepflegt werden.

(Vgl. auch open data bei Datenerhebung (Psychologie, Soziologie, etc.) – nicht bei klass. Texten.)

Open Access (OA) als Impactverstärkung

V.a. was die philosophischen Institutionen/Gesellschaften betrifft, wird open access von etablierten wiss. Gesellschaften (noch?) nicht so wirklich angenommen. Es erfordert von der jeweiligen Gesell./Inst. eine eigene Gouvernance-Politik hinsichtlich open access. Im Moment in der phil. Community also eher schleppend. Als Argument gegen diese reaktionäre Tendenz wird die Produktivität von open access angeführt. Produktivitätssteigerung im Online-Bereich meint Steigerung der Aufmerksamkeit (Klicks, etc.). Im wissenschaftlichen Bereich meint das konkret eine Erhöhung von Zitaten bzw. Zitathäufigkeit (Impactfaktoren).

(*Eine Studie von Kristin Antelman untersuchte, ob und inwiefern open access einen Vorteil betreffend den Einfluss und das Standing in der wiss. Community verschafft. Solche Studien weisen nach, dass die Barrierefreiheit ein positiver Faktor für die Zitationshäufigkeit ist und ist demnach karrierefördernd. http://eprints.rclis.org/5463/1/do_open_access_CRL.pdf bzw. http://www.open-access.net/informationen-fuer-verschiedene-faecher/philosophie *)


5. VO, 21.05.2015 Kalte Dusche für OA?! Bsp.: itunes university, journal of phil. and theology

3. Mögliche Probleme von OA – mit Beispielen

Der Prof. spricht über das Bild, das er als Hintergrund für seine Audio-Mitschnitte auf der audiothek gew. hat: 3 Modalitäten der Geschlossenheit/ des Hindernisses: Kunst (Mauer)- und Naturgeschlossenheit (Erde); und das Loch, das nur für den Blick offen ist. Alle Modalitäten deuten aber auch Offenheit an. Zugänglichkeit, Befreiung von Restriktionen? Die mögl. negativen Auswirkungen der Offenheit werden nun zum Thema. Ernst-nehmen der Offenheit bedeutet im Extremfall vielleicht sogar eine Offenheit, mit der man nichts mehr anfangen kann (nur sinnlose, weiße Fläche bei dem Loch – ohne das etwas dahinter erkennbar ist).

Impliziert nur binäre Oppositionen – entweder offen oder geschlossen – egal ob man damit jeweils noch etwas anfangen kann. http://philo.at/wiki/index.php/Orientierung_(tphff2015)#Komplikationen

Was bedeutet der hinter diesen Metaphern stehende Gedanke für open access (oder open journal)? Hier betrifft Offenheit die Rahmenbedingungen/Infrastruktur, die einen freien Zugang ermöglichen sollen. Befreiung der Hindernisse des Zugangs zu wiss. Informationen/Inhalte (vgl. Willinskys academia.edu).

These: freier Zugang kann wissenschaftliche Arbeit auch ruinieren.

Wittgensteins Zitat interpretiert: Wenn etwas geöffnet werden soll, gibt es dafür mannigfaltige Möglichkeiten und Praktiken. Zuerst kann man sich an den Unterschieden dessen orientieren, was geöffnet werden soll. > graduierter Begriff von Geschlossen- und Offenheit. Auch bei Literatur: manche Bücher muss man vor Ort lesen, andere kann man mit nach Hause nehmen, … Offenheit ist an Klauseln gebunden und ist moduliert. Im digitalen Bereich wäre eine solche eingeschränkte Offenheit leicht zu überwinden (auch Faksimiles).

> Technisch (die Materialität betreffend) also möglich, ABER auf institutioneller Ebene rechtlich/juridisch problematisch. Denn bestimmte trusties haben Verfügungsgewalt über den Nachlass (z.B. bei Wittg.). Diese müssen sie freigeben, obwohl sie jederzeit digitalisiert werden könnten. Es gibt Benutzungsgebühren, die die Benutzer (Studierende) nicht mitbekommen, weil sie die Uni zahlt, weswegen es so scheint, als ob der Zugriff frei wäre. Frage: Woher haben sie dieses Recht, Geld dafür verlangen zu können und die Möglichkeit freier Forschung zu verhindern, wo die Sachen ja schon lange digitalisierbar wären? Und was ist die Rolle traditon. Verlage?

Konsequenz: Das Konzept von „offenen Türen“ kann auch missbraucht werden. > Gefahren der Offenheit

Beispiele für radikalen open access:

- Online: Itunes university

> itunes ist genau dann aufgekommen, als diese Problematik der Offenheit virulent wurde. Peer to peer Netzwerke stellten eine Möglichkeit bereit, Daten (hier: Musik) in exorbitant hohen Mengen zu vervielfältigen. Steve Jobs dagegen überredete die wichtigsten Plattenlabels ihre Inhalte extrem günstig – aber immer noch zum Verkauf – anzubieten. Jobs Clou war eine Distributionsportalsoftware (> Infrastruktur), die direkten Zugang zu jeglicher Musik möglich machte. Blockade: kein Kopieren möglich, obwohl es nicht verschlüsselt ist! Obwohl Labels weniger Geld bekamen als durch Tonträger, hatten Kunden doch weltweiten Zugang. > itunes university bedeutet dann, dass dieses Konzept auf die wissenschaftliche Welt übertragen wird: apple bietet den Unis gratis an, Kurse als Videos in ‚itunes u‘ unterzubringen. Der Umgang mit der Plattform itunes ist ja schon bekannt; die Benutzer bekommen so also einfach zu Informationen. Die Unis sind online präsent. > Schaufensterfunktion (v.a für konkurrierende, gut gerankte Unis spannend) Man braucht aber apple Hardware!

> Die Offenheit führte hier dazu, dass jede Person Einträge in beliebige Themenbereiche machen kann. D.h. das Prinzip der Offenheit führt hier zum Gegenteil und zu Desorientierung! Plattformen wie itunes university müssen von der Ehrlichkeit der Leute ausgehen, und darauf hoffen, dass die Uploader korrekte Daten hochladen.

> ‚Offenheit OHNE Kontrolle‘ führt zu einem Verwässerungsprozess der Kategorien, mit denen man sich eigentlich orientieren können sollte. (Hierarchisierung von wiss. Inhalten schwer. Was verdient es, wiss. genannt zu werden?) > Anonymes Peer Review ist eine Möglichkeit wissenschaftliche Inhalte zu kontrollieren/begutachten. Wobei dieses Verfahren mit Aufkommen des Internets und der dortigen Geschäftstüchtigkeit in Schwierigkeiten gerät.

- „journal of philosophy and theology“: Oft bieten heutzutage Journals/Zeitschriften Peer-Reviews an; in Wahrheit aber wird dieser gar nicht vorgenommen und die Sachen werden einfach ohne Review veröffentlicht (z.B. double blind Review). Es gibt kein Standard Peer-Review-Verfahren; für den Prof. angesichts der Probleme (Missbrauch) nur eine Frage der Zeit, wann es da ist. http://philo.at/wiki/index.php/Abkassieren_(tphff2015)


6. VO, 28.05.2015 Fortsetzung: Probleme mit OA + Beginn mit „Wissen und Technik“

Eine radikale Form des open access kann den Begriff der Wissenschaftlichkeit in Zweifel ziehen, zwar nicht so, um ihn zu erschüttern, aber doch zu diskreditieren. Zu welchen Implikationen führen neue technische Möglichkeiten wie das social web? Vgl. die gängige Praxis über Twitter oder facebook (veraltet: mailinglisten) anderen Personen wissenschaftliche Daten/Unterlagen zu senden bzw. generell Informationen zu verbreiten. > Fernleihe an der Unibib kann so übergangen werden.

Ein unmoralisches Angebot?

- Verlagswesen: ‚AV Akademikerverlag‘ schickt dem Verfasser einer Diplomarbeit eine mail, in der ihm mitgeteilt wird, dass der Verlag diese gerne sowohl open access, als auch print on demand veröffentlichen würde. Der Verfasser recherchiert über diesen Verlag: Homepage, Facebook, etc. Ergebnis: Es gibt nur Gutes/Positives über diesen Verlag zu finden. Der Verfasser ist skeptisch, kritisch und denkt, dieser Verlag will eher Abzocken. (*Der Prof. untersucht diese Webseite nach Absprache mit dem Verfasser und findet heraus, dass omniscriptum publishing group dahinter steckt. Diese Verlagsgruppe ist nicht so seriös im Sinn von förderlich für das eigene wissenschaftliche Standing (predatory journals) [Suche mit whois.net] Die Bücher dort sind sehr teuer (30€-70€), weil sie je einzeln gedruckt werden.*) http://www.spiegel.de/unispiegel/jobundberuf/omniscriptum-verlag-veroeffentlicht-abschlussarbeiten-a-1027491.html http://philo.at/wiki/index.php/Verlagsprobleme_(tphff2015)

Aber: Es ist nicht unüblich, dass Verlage mit extrahierten Informationen einen Gewinn erzielen, ohne am ursprünglichen wissenschaftlichen Arbeitsprozess beteiligt gewesen zu sein. > Verlag macht Geld mit der Arbeit anderer, aber dafür schafft er dem/der AutorIn ein Renommee und macht Öffentlichkeitsarbeit.

> Wissenschaftliche Praxis und Internet wird zusammengeführt: dieses Bsp. zeigt, dass diese Zusammenführung nicht ohne Destruktion der alten Wissenschaftstradition von statten gehen muss. Aber: Was kann man dagegen machen? Welche Energien/Aufwand wurden in die Diplomarbeit gesteckt? Viel mehr als i.d.R. angenommen; subjektiv sieht man oft nur die eigene Arbeit. Jedoch steckt hinter der brandneuen, anerkannten Arbeit viel mehr – nämlich Bildungsweg (ca. 20 Jahre Abrichtung), Betreuung, Prüfung, etc. Nur dann können es überhaupt auch vielleicht nicht so seriöse Verlage wie akademikerverlag verwenden.

> Open access Denken muss sich also Gedanken machen, Wissenschaft nicht als kostenloses Faktum vorauszusetzen. Der Wert der Wissenschaft, als auch der Wert des Autors (Blamage-Möglichkeit) wird durch diese radikale Form des open access (akademikerverlag) unterlaufen.

Definitionen http://philo.at/wiki/index.php/Verlagsprobleme_(tphff2015)#Vor.C3.BCberlegungen_zu_Wissen_als_.E2.80.9Enicht-rivalisierendes_Gut.E2.80.9C

> Nicht-rivalisierendes Gut: es ist für alle Personen und ohne einen anderen zu schaden frei zugänglich. Niemanden wird etwas weggenommen. Aber: auch die nicht-rivalisierenden Güter sind hergestellte Güter, und müssten etwas kosten. (Leuchtturm, Sonne sind ganz genau genommen keine komplett immateriellen Güter.) Wie sieht es mit dem pdf file aus? Es kostet genau genommen Energie, Computer, Zeit, die dem pfd gewidmet wird. Die Kosten des Bildungssystems müssen zum Spottpreis eines pdfs einer Abschlussarbeit dazugerechnet werden. Das muss als Bedingung vorausgesetzt werden. I.d.R. ist dies vielen aber unbewusst.

> Deswegen ist es vielleicht besser von Allgemeingut zu sprechen – dieses kann aufgebraucht werden.

> Nicht-rivalisierend kann aber auch enger gefasst werden: in Anlehnung an die Ökonomie/VWL. Märkte: Verwaltung von Ressourcen, die nicht allen Leuten immer zugänglich sind > Einzelexemplare. Ein nicht rivalisierendes Gut, wäre dann ein Gut, dass dieser Mangelhaftigkeit nicht ausgesetzt ist.

> Dies ist in letzter Konsequenz ein juridisch-politisches Problem (copyright Schutz, etc.)

4. Wissen und Technik

Infrastruktur des Internets

Es gibt 13 Root Server. Diese sind dafür verantwortlich, dass man Zugriff auf alle möglichen Seiten hat. ‚Bind‘ wählt diese an und baut einen Cache auf, um die Informationswege zu garantieren. Wird eine URL eingegeben, wird diese von rechts nach links aufgelöst. (1) .at > Österreich hat einen zentralen Pool, (2) .ac > akademische österreichische Adresse, …

Aber: Wer ist verantwortlich für diese 13 Root Server? ICANN (Internet Corporation for Assigned Names and Numbers); eine Institution, der in den USA seinen Sitz hat, und in letzter Konsequenz der amerikanischen Regierung untersteht, amerikanischem Recht untersteht.

> Wenn diese Server abgeschaltet werden/ausfallen würden, dann läuft das Web noch ca. eine Woche weiter, da die Daten für diese Zeit noch in den Caches zwischengespeichert sind (Cloud). Die Standards der Software, auf der das Internet beruht, sind OA – hier gibt es kein Privileg für die USA. http://philo.at/wiki/index.php/Wissen_und_Technik_(tphff2015)

7. VO, 11.06.2015 Markup Sprachen, das OA-Protokoll und gewisse Schwierigkeiten

Sammelpunkt orientiert sich nach den Prinzipien von OA und den vorgestellten Deklarationen. Technisch gesehen, funktioniert diese Plattform nach gewissen Standards. Vgl. digi20.de fordert Erklärung, Bücher für nicht kommerzielle Zwecke zu nutzen. https://download.digitale-sammlungen.de/BOOKS/pdf_download.pl?id=bsb00045136&nr=00002 Große Verlage haben auf ein Bezahlsystem für ihre Inhalte umgestellt und sich nicht um die open access Bewegung gekümmert. Die mit open access abrufbare Version ist aber vorgeschalten, denn mit den Meta-Daten kommt der Eintrag auf der open access Plattform zuerst (auf Google). Bei Sammelpunkt muss man beim Hochladen eines pdf-Dokuments die Meta-Daten immer mitangeben.

Markup Sprachen, das OA-Protokoll und weitere Definitionen

> Bei der Suche nach den wissenschaftlichen Artikeln kommt die Instanz OAI-PMH (open archive initiative protocol for metadata harvesting) ins Spiel: Wenn die Informationen (Meta-Daten) eingetragen werden, werden sie in XML-Sprache übersetzt. Das hat eine Standardisierung der Informationen zur Folge. Diese Informationen werden herangezogen, wenn der Abstract generiert wird.

> Die markup languages sind maschinenlesbare Sprachen für die Gliederung und Formatierung von Texten und anderen Daten. Der bekannteste Vertreter ist HTML, die Kernsprache des World Wide Webs (wikipedia).

> Harvester ist ein Instrument, mit dem auf die repositories (Lager, Depot) zugegriffen und so die Archive nach bestimmten Eigenschaften durchsucht werden kann. Ein Repository, ist ein verwaltetes Verzeichnis zur Speicherung und Beschreibung von digitalen Objekten. Bei den verwalteten Objekten kann es sich beispielsweise um Programme (Software-Repository), Publikationen (Dokumentenserver), Datenmodelle (Metadaten-Repository) oder betriebswirtschaftliche Verfahren handeln. (wikipedia)

> OA-Protokoll: ein standardisierter Plan, der abgearbeitet wird, und genau festlegt, nach welchen Richtlinien Daten übertragen werden.

Schwierigkeiten

Die Vision einer technischen, kooperativen Erfassung der wiss. Literatur basiert auf den genannten Mechanismen. (Vgl. Anschluss an die Budapester und Berliner Erklärung) In der Realität kann das aber außer Kontrolle geraten.

> Predatory journals: Journale, die Geld verlangen, und doch in eher minderwertige Qualität veröffentlichen. Open access gibt nämlich keinen Aufschluss über den Inhalt und auch nicht über die Infrastruktur. Die Kontrolle über Inhalt ist zwar im OAI-PMH Bereich einigermaßen gewährleistet, ABER nur weil es open access heißt, bedeutet das nicht, dass es sich den OAI-PMH Standards unterwirft.

> DOAJ (direcory of OA journals): enthält tausende von open access journals. Es sagt, dass es Peer-Reviewed, aber dies bedeutet weder, dass es das wirklich so umsetzt, noch, dass es wissenschaftliche Standards erfüllt.


8. VO, 18.06.2015 5. Wissen und Recht

Wdh.: Die Deklaration: 2 Faktoren > alte Tradition + neue Tradition = gebräuchliche, freue Zur-Verfügung-Stellung der wissenschaftlichen Arbeit mit den technischen Methoden. Es entsteht neue Offenheit, die durch das Internet ermöglicht wird. Bsp. megaupload: megaupolad ist ein one-klick-hoster: Man schickt einer Adresse ein file, welches unter der Verfügung des Benutzers steht, welcher es aber gerne teilen möchte. Die Adresse speichert das file und gibt dem Benutzer einen Zuangscode zu dem file. Das file ist also auf einer externen Adresse gespeichert (cloud).

(1) Die Daten können von Bekannten aus der cloud geladen werden, wenn diese den Zugangscode dafür haben.

(2) Die Daten können aber auch für andere, unbekannte Personen geladen werden, sofern sie den Code haben. (*avxhome.se verlinkt an einem bestimmten Produkt Interessierte zu einem one-klick-hoster, wo es gespeichert ist.*)

(I) Peer-To-Peer Netzwerke: Filme, Bilder, Musik können z.B. auf napster getauscht werden. Ist man bei einer solchen Plattform dort angemeldet, sieht ein Interessierter die Daten, die man zur Verfügung stellt, und kann sich so über napster die Daten holen. Vom Prinzip her funktioniert das wie eine Tauschbörse – nur dass ich die Daten trotzdem noch habe. Dies unterläuft aber die Urheberrechte (copyright) von z.B. Verlagen, Labels. Diese Verbreitungsweise wurde aber rechtlich unterbunden (über Erkennung von IP-Adressen)

(II) Bit Torrent: Regelt, wie Daten im Internet verteilt werden können. Man hat eine z.B. eine 4GB große Linux-Distribution.

Der Inhalt ist über die Absicht, desjenigen, der sie zur Verfügung stellt, gratis verfügbar. Es gibt eine externe Ansprechstelle, der gemeldet wird, dass auf meinem Rechner diese Linux-Version verfügbar ist. Diese Stelle registriert dies, sendet diese Informationen in die Welt hinaus. Wenn einer diese Linux Distribution haben will, verbindet diese Stelle die Interessierten mit meinem Computer, wo die Linux-Version geparkt ist. Vom Prinzip her ist dies noch wie Peer-to-Peer; außerdem würde dadurch eine sehr hohe Belastung für meinen Computer bzw. die Datenleitung (langsame Geschwindigkeit) entstehen.

Aber: Dieser Ansprechknoten/-stelle verwaltet nicht nur die Informationen über die ursprüngliche Datei, sondern auch die Informationen der anfordernden Computer, managet also plötzlich wesentlich mehr als nur einen Computer (1 + X, wobei X die Anzahl aller anfordernden Computer ist). Durch diese Vernetzung laden die Computer die Daten nun gegenseitig voneinander herunter. Oft ladet man dann gar nicht mehr von der ursprünglichen Quelle herunter, sondern von einem PC, der aufgrund eines größeren Ladefortschritts die benötigten Daten schon hat (> Arrangement). Bei Dateien mit großem öffentlichem Interesse geht das rasant schnell, da es eben schon so viele gibt, die die benötigten Daten haben.

> An diesem Vorgehen ist erstmal nichts verwerflich, es ist legitim: es ist läuft bloß über ein normales, standardisiertes Internetprotokoll + der Uploader will es auch gratis zur Verfügung stellen.

18% des Internetverkehrs ist zurückzuführen auf Bit-Torrent (200X, leider vergessen)! Illegitime Benutzung eines legitimen Internetprotokolls.

(III) one klick hoster: Es gibt Uploads, die sich auf einen Speicher/Server befinden (rapidshare, früher: megaupload) und dort verborgen sind. > Sicherheit gegen illegitime Verwendung. Es gibt Mittelinstanzen als Verzeichnisse, die die Informationen enthalten, um eine Information identifizieren zu können, und zum eigentlichen Server weiterleiten. Mittelinstanzen sind also zwielichtig, aber rechtlich/juridisch gerade noch nicht belangbar (avxhome.se). Auch der Download von Endserver ist ebenfalls nicht belangbar, denn die Informationen sind ja nicht sichtbar und die Verbindung ist verschlüsselt.

> Mit dem Ideal der offenen Zugänglichkeit von Forschungsinformationen schießt man hier übers Ziel (open archive Protokolle, Harvesting, etc.) hinaus. > Verkehrung ins Negative. Die Etablierung dieser Möglichkeiten in einem gesetzlich nicht ausgeleuchteten Raum stellt eine extreme Herausforderung dar. Freie Willkür <=> verantwortungsvolle Freiheit


http://philo.at/wiki/index.php/Wissen_und_Recht_(tphff2015)

Urheberrechtsgesetz

Das Urheberrecht schützt den Urheber als geistigen Schöpfer eines Werkes der Literatur, Wissenschaft und Kunst. Es sichert ihm alle Urheberpersönlichkeitsrechte sowie Verwertungsrechte. Das Schutzsubjekt des UrhG ist der Urheber eines Werkes, das Schutzobjekt das Werk selbst. Dies gilt z.B. nur in DEU. Aber: Welches Staatsgebiet hat das Internet? Was ist, wenn ich von z.B. Namibia aus über one-klick-hoster ein in DEU geschütztes Werk downloade. Auf staatliche Territorien bezogenes Urheberrecht wird durch das Internet ausgehebelt. > Konsequenz: Es braucht einen internationalen, globalen Schutz für urheberrechtlich zu schützende Werke. Dafür müsste sich dann aber das jeweilige Land verpflichten und es muss dieses Recht dann selbst pflegen. Diese rechtlichen Intentionsversuche hinken der Technik aber heillos hinterher. Man wählt sich ins Internet über den Umweg eines Proxy-Servers ein (Iran, China, …), und kann die Restriktionen so umgehen.

Was ist ein Werk?

Eine Bedingung ist, dass ihm eine sog. ‚Schöpfungshöhe‘ zukommt (Nicht: z.B. Dreiklänge, 3m hohe Ziegelmauern, einfache Sätze, „Hallo Welt“-Programm).

Die open source Bewegung stellte als erste den freien Code zur Verfügung, den es braucht, um das Programm selbst weiterentwickeln zu können. (Nicht nach der Idee von apple und Windows: „Ins Internet kommst du nur mit meinem Produkt und dafür musst du zahlen!“)

Die Computer-Hardware war so teuer, dass die Software bedenkenlos gratis verteilt wurde. Aber es war nicht vorhersehbar, dass die Computerentwicklung so rasant von statten gehen würde. Die Computer waren also plötzlich für jeden erschwinglich. Die Software wurde ‚open‘ weiterentwickelt und frei zur Verfügung gestellt (vgl. Richard Stallman > GNU-Lizenz) > Paradigma der Offenheit (steht aber zu illegitimer Offenheit in Kontrast!)

Creative Commons CC

Ist Antwort auf das Dilemma: Datenpiraterie <=> Urheberrechte der einzelnen Staaten. Was mache ich mit meinem Werken im Wissen um dieses Dilemma, z.B. wenn ich meine Diplomarbeit hochladen will, und selbst bestimmen will, was damit geschehen darf?

> CC-licenses: Sind ein Versuch, die Reichweite des Internets und die Gültigkeit von Urheberrechtsansprüchen zu kodifizieren. Sie sind etwas für Leute, die etwas online zur Verfügung stellen wollen, die diese Daten aber mit Rechtskodifikationen belegen wollen, die auf der ganzen Welt Geltung haben sollen. Und CC stellt einem gebündelt Lizenzen zur Verfügung; diese sind nach den entsprechenden Einstellungen des Urhebers dimensioniert (CC-BY, CC-BY-SA, CC-NC-SA, etc.) http://creativecommons.org/licenses/