Christoph Hubig: Wissensmanagment und Kommunikation in der E-Economy (BW): Unterschied zwischen den Versionen

Aus Philo Wiki
Wechseln zu:Navigation, Suche
(Explizites und implizites Wissen - Wird letzteres verdrängt?: first)
K (Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus: content)
Zeile 23: Zeile 23:
  
 
== Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus ==
 
== Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus ==
 +
 +
 +
Es war bereits angedeutet, dass die Position der Nutzerinnen und Nutzer von Informa­tionssystemen und wissensbasierten Systemen neben all den Vorteilen des Einsatzes von IT-Technologien auch neue problematische Züge aufweist. Diese sind im Wesent­lichen darin begründet, dass zunächst einmal nicht mehr im Zuge von Wissensakquisi­tion und Kommunikation die tragenden Codes direkt beeinflussbar und fortschreibbar sind. Die klassische Strategie dieses Problem zu bewältigen liegt darin, dass die Sys­teme bezüglich der Bereitstellung und Verknüpfung von Informations- und Wissens-beständen sowie möglicher Strategien des Umgangs mit diesen (z. B. der Gestaltung von Suchpfadalgorithmen) auf entsprechende Adressatenprofile abgestimmt werden. Diese werden von den Entwicklem zusammen mit repräsentativen Nutzern abgegli­chen. Nach der klassischen Definition von Rich, vielfach zitiert, ist ein Adressatenpro­fil „diejenige Sammlung von Nutzereigenschaften als Stereotyp, das alle Informatio­nen umfasst, welche typischerweise wahr sind für diejenigen Nutzer, die das Stereotyp realisieren" ([Rich89], S. 38). In der Rekursivität dieser Definition liegt das Problem analog zu demjenigen des hermeneutischen Zirkels. Eine Überlegung Franks geht in dieselbe Richtung: „Wenn es etwa einen generellen, formal sprachlich festgelegten Begriff - wir können auch sagen: Konzept - von „Rechnung" gibt, würden aufwändi­ge ggf. wegen semantischer Unterschiede nur unzureichend mögliche und risikobehaftete Transformationen entfallen. Ein weiterer Vorteil ergibt sich durch wesentlich ver­besserte Möglichkeiten ...: Wenn es generelle Konzepte gibt, können beim Entwurf von Software entsprechende Schnittstellen vorgesehen werden, so dass die Soft­ware ... in allen Unternehmen eingesetzt werden kann, deren Informationssysteme die-se Konzepte berücksichtigen" ([Fran99], S. 16). Solche generellen Konzepte basieren auf generellen Mustern, die „nicht im Bemühen um Rekonstruktion faktischer Formen des Rechnungswesens entstanden, sondern zielt auf idealtypische Konzepte, die durchaus mit dem Anspruch auf generelle Zweckmäßigkeit verbunden sind" (ebd.). Das ist die Definition von Technik!
 +
In der Rekursivität bzw. Zirkularität dieser Fassung wird bereits die Problematik er-sichtlich. Denn dasjenige, was im Bereich natürlicher Interaktion und Kommunikation als Wechselspiel von Erwartung und Erwartungserwartung die Dynamik des Verste­hens im so genannten hermeneutischen Zirkel ausmacht, wird hier als Modell (i.S. von Erfüllungsinstanz) einer Konstruktion, die die Handlungsstrategien derjenigen um-fasst, die den Rationalitätskriterien der Konstruktion genügen, real implementiert. Wer dem Stereotyp nicht genügt oder unter Unterstellung eines falschen Stereotyps mit den Systemen interagiert, begibt sich der entsprechenden Gratifikation bzw. scheitert in seinen Handlungsvollzügen. Auf die „Negativliste" prominenter Beispiele gescheiter­ter Systemnutzung einschließlich der dadurch ausgelösten Havarien brauche ich nicht einzugehen.
 +
Freilich bestehen schon seit längerer Zeit die unterschiedlichsten Möglichkeiten, die Systeme adaptiv zu gestalten und zum einen die Nutzerstereotype so fortzuschreiben, dass sie zunehmend individualisierbar werden und zum anderen die Adaption so zu gestalten, dass sie in erheblichem Maße dynamisiert wird und mit dem Wechsel von Nutzungsstrategien fast Schritt zu halten vermag. Gleichwohl bedarf eine solche A-daptivität bestimmter Kriterien bezüglich der Observablen und Indikatoren die als re­levant erachtet werden, um eine entsprechende Reaktion der Systeme auszulösen. Die Problematik verlagert sich dann in einen höherstufigen Bereich, in dem Stereotype solcher Observablen und Indikatoren als einschlägig relevante Muster ausgezeichnet werden müssen. Wir finden hier in technischer Gestalt wieder, was den Einsatz forma­ler Sprachen generell charakterisiert: die Notwendigkeit einer eindeutigen Zuordnung zu Observablen und Indikatoren für die Modellierung einer extensionalen Semantik.
 +
Fehlt hier eine entsprechende Transparenz, auf die sich die Nutzer (on demand) bezie­hen können, so schreibt sich also die erwähnte Problematik auf einer höheren Ebene schlicht fort. Die regelmäßig artikulierten Verluste eines Vertrauens in die Systeme
 +
assen sich m.E. darauf zurückführen, dass die mit den Systemen interagierenden Sub­jekte bestimmte Kompetenzen, auf die sie Wert legen, in Frage gestellt sehen.
  
 
== Kompetenzverluste ===
 
== Kompetenzverluste ===

Version vom 29. November 2006, 18:32 Uhr

Exzerpte aus Christoph Hubig: Wissensmanagment und Kommunikation in der E-Economy. Zum Widerspruch zwischen Rationalisierung und Kompetenzerweiterung. In: U. Frank (Hrsg.): Wissenschaftstheorie in Ökonomie und Wirtschaftsinformatik. WIesbaden 2004. S. 211ff.


Die Entwicklung zur E-Economy - Ein Optimierungs- und Rationalisierungsprozess?

Sprechen wir zunächst über Veränderungen im Objektbereich. Es existiert eine ganze Reihe von Diagnosen zur E-Economy, die auf den ersten Blick triftig erscheinen, wel­che den Prozess der Informatisierung des Wirtschaftens als Optimierungs- und Ratio­nalisierungsprozess einschlägiger Mittel-Zweck-Verbindungen erachten. Zweifellos lässt sich beobachten, dass von den EntwicklungsprozessenlPrototyping über Logistik und Distribution bis hin zu Nutzung und Entsorgung durch die neuen Möglichkeiten des Informationstransfers Ressourcen besser genutzt werden, Transaktionskosten ge­senkt, ferner im Zuge einer Verminderung des Aufwands an Informationsbeschaffung und erhöhte Transparenz Opportunitätskosten gemindert werden können u.v.a. mehr. Beschränkt man sich auf diese Sichtweise, dann entgehen der Analyse vier weitere wesentliche Entwicklungstendenzen mit einschlägigen Konsequenzen, gerade ange­sichts der Herausforderungen eines Ubiquitous Computing, also den neuen Interakti­onsmöglichkeiten mit einer bereits informierten „intelligenten" Umwelt.

Da wären erstens die neu eröffneten und zunehmend erweiterten Möglichkeiten einer Substitution ganzer Workflows durch Delegation dieser Prozesse an die Systeme, wodurch eine in diesen Systemen implementierte Rationalität, deren Operationalisierung dem natürlichen Bewusstsein versagt bleibt, in die Prozesse importiert wird. Wenn die Lösung von Optimierungsproblemen maschinell erledigt wird, werden einerseits Defi­zite menschlichen Problemlösens überwunden, andererseits, worauf noch einzugehen sein wird, bestimmte Handlungsdimensionen, die sich einer entsprechenden Rationali­sierung entziehen, nicht mehr entscheidungsprägend. Sind das dann nur noch Soft-Factors? Zweitens wird ermöglicht, dass tradierte und in bestimmten Bereichen bewährte Handlungsvollzüge und ihre Koordination übertragen werden auf neue Berei­che: Typisches Beispiel ist eine Radikalisierung des Marktgeschehens nach dem Vor­bild des Börsenhandels oder Auktionen, welches sich auf alle möglichen Produkte erstrecken kann, die nunmehr entsprechend Angebot, Nachfrage, Qualitätsverfall etc. dynamisch ihre Preise anpassen. Drittens werden neue Act-Types im Bereich ökono­mischen Handelns überhaupt ermöglicht. Eine neue Flexibilität sowohl in der Ent­wicklung und Produktion als auch in der Nutzung kann realisiert werden im Zuge der bereits in der „Magna Charta des Informationszeitalters" beschworenen „Entmassung" der Produktion und Nutzung durch individualisierbare Serienfertigung on demand, Si­lent CommercelZahlung lediglich noch für die Nutzung bis hin zur Anpassung von Versicherungsprämien in Abhängigkeit vom registrierbaren Risikoverhalten des Ver­sicherungsnehmers. Damit geht auf Seiten der Anbieter die Möglichkeit einer „Insze­nierung von Marktbedingungen an der Basis" der Produktentwicklung und Produktion einher mit einer damit verbundenen Flexibilisierung von Unternehmensstrukturen auf sich selbst organisierendes Projektmanagement etc. Viertens werden in neuer Weise höherstufige Koordinationsstrategien realisierbar, indem über die Kommunikations-und Informationssysteme die Interaktion der Nutzerinnen und Nutzer mit diesen Sys­temen einschließlich des damit verbundenen ökonomischen Handelns unter systemstrategischen Gesichtspunkten optimiert wird im Zuge der - wie die Soziologen sagen - „anonymen Vergemeinschaftung". Anonym deshalb, weil über die direkte Interakti­on mit dem System den Nutzern der Einblick in die dadurch ausgelöste Umstrukturie­rung der Binnenaktivität des Systems versperrt bleibt. Gerade diese letzteren vier As­pekte der E-Economy-Entwicklung lassen es problematisch erscheinen, diesen Prozess als bloßen Rationalisierungsprozess zu erachten, wenngleich Effizienz- und Effektivi­tätsgewinne damit einhergehen. Es verändert sicher aber hier der Gegenstandsbereich des Wirtschaftens und der damit verbundenen Act-Types- und Handlungsstrategien und gerade hierin liegt eine Provokation zur Reflexion [Hubi03]. Denn der Ertrag der BWL soll doch Rationalisierung i. S. eines Effektivierens der Marktprozesse sein.

Veränderung von Information, Wissensgenese und Kommunikation

Fragen wir zunächst allgemein nach der Rolle des Wissens in solchen Prozessen. Dazu vergewissern wir uns zunächst einiger Schlüsselbegriffe, die geeignet erscheinen, das komplexe Veränderungsgeschehen zu beschreiben: Üblicherweise wird die Genese von Wissen als Prozess begriffen, der über eine Kette vom Signal über die Daten und über die Information zum Wissen führt. Die Glieder dieser Kette, die zwischen Signa­len, Daten, Information und Wissen vermitteln, sind Regelsysteme, unter denen die entsprechende Transformation bewerkstelligt wird, i.e.S. die Codes. So steht die Ver­arbeitung von Signalen zu Daten (natürlich oder maschinell) unter den Regeln, denen unsere Wahrnehmung oder eine Sensortechnik verhaftet sind. Die Transformation von Daten zu Information erfolgt gemäß den klassischen Gesetzen der Informationstheorie, unter denen Daten einen bestimmten Informationswert erhalten, darüber hinaus syn­taktischen Codes sowie semantischen Codes, die einen entsprechenden syntaktischen oder semantischen Status der Information bestimmen. Der Übergang von Information zu Wissen, zunächst als Wissen was ist, wird bestimmt durch entsprechend pragma­tisch undloder systemfunktional orientierte Codes der Validierung von Information, desgleichen dann der Übergang zu einem Wissen darüber was sein kann über Regeln der Induktion etc. und schließlich einem handlungsleitenden Wissen was sein soll über normative Regeln, Standards, Schemata der VeranlassunglPerlokution. Hinter diesem Bild einer Kette der Wissensgenese bzw. der Wissensakquisition bleibt jedoch ausge­blendet, dass es sich eher um einen Kreislauf handelt. Denn die Gestaltung und Fort­schreibung der Codes in Abhängigkeit von dem generierten oder akquirierten Wissen findet beständig statt, so dass sich alle Instanzen - bildhaft ausgedrückt - aneinander abarbeiten und beständig neue Überlegungsgleichgewichte entstehen. Dies lässt sich übertragen auf Kommunikationsprozesse: Signalgeber ist hier der Em­mitent einer Nachricht, die die entsprechenden Stationen durchläuft und im Adressaten eine entsprechende Reaktion auslösen sollte qua über dessen Gewahrwerden eines Wissens, was sein soll. Auch hier sind die einschlägigen Gelenkstellen und Codes nicht einfach gegeben: Sie werden unterstellt, entwickelt und fortgeschrieben über wechselseitige Erwartungen bezüglich der Gültigkeit der Codes und Erwartungserwar­tungen etc., wobei als gelungen oder misslungen erachtete kommunikative Effekte maßgeblich werden für die Fortschreibung der Regeln und umgekehrt. Wesentlich hierbei ist, dass unterschiedliche Kommunikationskanäle parallel einsetzbar sind, um Relativierungen, Bestärkungen, Authentifizierungen oder Entwertungen der Informati­onen untereinander vorzunehmen. Die Ersetzung der einzelnen Instanzen des Prozesses sowie der dynamischen Codes durch technische Systeme erbringt nun einerseits einen Rationalisierungseffekt, indem sie den Transfer von Signalen über Daten und Informationen zu Wissen absichern und nicht unter einer Fragilität von Codes problematisierbar werden lassen. Sie sind aufge­baut über einen Definitionsbereich, der aus modellierten Weltausschnitten als „Ontolo­gien" besteht. Das Grundproblem, auf welches wir später eingehen werden ist, unterwelchen Kriterien solche Ontologien aufgebaut werden und ob sie den Begriff über­haupt verdienen. Denn eine klassische Ontologie beruhte auf einer Modellierung der Welt als Realität mit dem Anspruch auf Abbildung im weitesten Sinne. Ontologien der Informatiker sind pragmatisch motivierte Darstellungen von Wirklichkeiten (actuali­tas), die unter funktionalen Gesichtspunkten (Topoi), Kategoremen (Prädikabilien) und Kategorien (Prädikamenten) als vorausgesetzter „Grammatik" des Denkens sowie in­haltlich bestimmter Klassifikationssystemen modelliert werden, unsere Welt charakte­risieren. Wie in der Tradition sei Aristoteles und Cicero aufgezeigt, haben solche To-piken ein praktisches - kein theoretisches - Fundament, da sie Theoriebildung erst ermöglichen. Sofern technisch implementierte Ontologien unsere Weltbezüge und In­teraktionen formieren, sind sie Welt und ersetzen gewissermaßen eine ursprünglich phänomenale Welt, zu der im Kontext natürlicher Lebensformen ein Bezug erst herzu-stellen ist. Solche technisch implementierten Codes sind fest, verlässlich, beruhen auf anerkannten Normierungen und Idealisierungen. Darin liegt ein Rationalisierungsef­fekt. Varianz wird reduziert, und der bewusste Abbau von Mehrdeutigkeit „bedeutet zwar zunächst eine Steigerung der Komplexität, die allerdings durch einen Gewinn an reduzierter Komplexität ausgeglichen werden kann - eben durch eine erhöhte Selekti­vität von (maschineller) Kommunikation" ([Fran99], S. 17). Sie entziehen sich dem direkten Eingriff einer spontanen und im wechselseitigen Abgleich vorgenommenen Fortschreibung, einer Umgewichtung oder Uminterpretation, Ergänzung oder Außer­kraftsetzung. Zwar versucht man im Bereich technisch vermittelter Kommunikation den kommunikationsermöglichenden Erwartungen und Erwartungserwartungen über die Gestaltung der Mensch-Maschine-Schnittstellen und Mensch-Maschine-Interfaces zu entsprechen durch den Abgleich der „conceptual interfaces" mit den „perceptual interfaces". Einmal vorgenommen ist dieser Abgleich jedoch fixiert und kann nicht - ohne weiteres - bei der Mensch-Maschine-Kommunikation dynamisiert werden. Ge­nau dies mag erwünscht sein und in vielen Situationen als zielftlhrend erachtet werden. Hier treffen sich „Wissenschaft" mit ihrem Hang zur Idealisierung und Generalisie­rung und eine Technik, die auf Normierung aus ist. Es wird aber zu prüfen sein, ob hierin nicht auch Defizite liegen können, die dann zu kompensieren wären unter ein­schlägigen Kompensationsstrategien. Je stärker Wissensakquisition und Kommunika­tion unter wissenschaftlichen Modellierungen technisch vermittelt sind, umso dringli­cher stellt sich die Frage, ob über die Effizienz- und Effektivitätsgewinne hinaus nicht bestimmte Chancen der Intervention in die Prozesse der Wissensakquisition und Kommunikation ausgespart werden, die für sich gesehen wertvoll sind und keineswegs unter Soft-Skills abgewertet werden dürfen.

Explizites und implizites Wissen - Wird letzteres verdrängt?

Kommen wir noch einmal zurück auf Binmores berühmtes Radfahrerbeispiel. Der „unbewusst" schaltende Radfahrer verfügt nicht nur in dem Sinne über implizites Wis­sen, dass es ggf. explizit rekonstruierbar wäre (a limine als Lösungswissen von Diffe­rentialgleichungen). Vielmehr aktiviert er implizit weiteres implizites Wissen spontan nach wechselnden Launen und Absichten, je nachdem, ob er kontrolliert für ein Ren­nen trainiert, ob er sich ohne Rücksicht auf Verluste am Berg austoben will, ob er situ­ativ bedingt die Landschaft genießen oder Funktionen seinen Rades ausprobieren will etc. Wenn man davon ausgeht, dass explizites Wissen aus (1) identifizierten, (2) klassifi­ziertenlsystematisierten und (3) als gültig anerkannten Informationen besteht, kann man unterschiedliche Typen impliziten Wissens daran festmachen, wenn eine oder mehrere dieser Bedingungen nicht erfüllt sind. Sinnlichelästhetische Anmutungen ((1) und (2) fehlen), Bekanntheit mit ... ((2) fehlt) oder Vermuten ((3) fehlt), stellen u. a. solche Typen dar. Solcherlei implizites Wissen mit seinen entsprechend defizitären Codes steuert in vielerlei Hinsicht nicht bloß das Verhalten des Radfahrers, sondern auch von Experten oder sonst wie Erfahrenen insbesondere und gerade auch dadurch, dass es in seinen unterschiedlichen Ausprägungen implizit vernetzt ist mit verschiede­nen Typen von Präferenzen (impliziten, latenten, unterbestimmt höherstufigen Präfe­renzenl„Haltungen"lEinstellungen). Hinzu kommt, dass implizites Wissen in mancher Hinsicht unter erkenntnistheoreti­schen Gesichtspunkten „härter" sein kann als ein explizites Wissen, welches in seinem Explikationsanspruch seiner Grenzen nicht gewahr ist: So lässt sich ein Wissen über Möglichkeiten, die sich explizit nur in ihren Aktualisierungen darstellen, strengge­nommen nur als implizites entwerfen, und dasselbe gilt für ein Wissen vom Nichtwis­sen, welches sich explizit nur in den Spuren des Scheiterns zeigt. Möglichkeitswissen und Nichtwissenswissen sind aber in erheblichem Maße handlungsleitend. Informati­onssysteme, die explizit-wissensbasiert sind, kommen hier an ihre Grenzen, sofern man nicht bewusst bestimmte Substitute hierfür in die Systeme implementiert, z. B. die Dokumentation von Dialoggeschichten, die Präsentation von Fehlerwissen und ge­scheiterten Lösungen, Vernetzungen auf Analogie- und Ähnlichkeitsbasis etc. Wir werden später hierauf noch eingehen.

Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus

Es war bereits angedeutet, dass die Position der Nutzerinnen und Nutzer von Informa­tionssystemen und wissensbasierten Systemen neben all den Vorteilen des Einsatzes von IT-Technologien auch neue problematische Züge aufweist. Diese sind im Wesent­lichen darin begründet, dass zunächst einmal nicht mehr im Zuge von Wissensakquisi­tion und Kommunikation die tragenden Codes direkt beeinflussbar und fortschreibbar sind. Die klassische Strategie dieses Problem zu bewältigen liegt darin, dass die Sys­teme bezüglich der Bereitstellung und Verknüpfung von Informations- und Wissens-beständen sowie möglicher Strategien des Umgangs mit diesen (z. B. der Gestaltung von Suchpfadalgorithmen) auf entsprechende Adressatenprofile abgestimmt werden. Diese werden von den Entwicklem zusammen mit repräsentativen Nutzern abgegli­chen. Nach der klassischen Definition von Rich, vielfach zitiert, ist ein Adressatenpro­fil „diejenige Sammlung von Nutzereigenschaften als Stereotyp, das alle Informatio­nen umfasst, welche typischerweise wahr sind für diejenigen Nutzer, die das Stereotyp realisieren" ([Rich89], S. 38). In der Rekursivität dieser Definition liegt das Problem analog zu demjenigen des hermeneutischen Zirkels. Eine Überlegung Franks geht in dieselbe Richtung: „Wenn es etwa einen generellen, formal sprachlich festgelegten Begriff - wir können auch sagen: Konzept - von „Rechnung" gibt, würden aufwändi­ge ggf. wegen semantischer Unterschiede nur unzureichend mögliche und risikobehaftete Transformationen entfallen. Ein weiterer Vorteil ergibt sich durch wesentlich ver­besserte Möglichkeiten ...: Wenn es generelle Konzepte gibt, können beim Entwurf von Software entsprechende Schnittstellen vorgesehen werden, so dass die Soft­ware ... in allen Unternehmen eingesetzt werden kann, deren Informationssysteme die-se Konzepte berücksichtigen" ([Fran99], S. 16). Solche generellen Konzepte basieren auf generellen Mustern, die „nicht im Bemühen um Rekonstruktion faktischer Formen des Rechnungswesens entstanden, sondern zielt auf idealtypische Konzepte, die durchaus mit dem Anspruch auf generelle Zweckmäßigkeit verbunden sind" (ebd.). Das ist die Definition von Technik! In der Rekursivität bzw. Zirkularität dieser Fassung wird bereits die Problematik er-sichtlich. Denn dasjenige, was im Bereich natürlicher Interaktion und Kommunikation als Wechselspiel von Erwartung und Erwartungserwartung die Dynamik des Verste­hens im so genannten hermeneutischen Zirkel ausmacht, wird hier als Modell (i.S. von Erfüllungsinstanz) einer Konstruktion, die die Handlungsstrategien derjenigen um-fasst, die den Rationalitätskriterien der Konstruktion genügen, real implementiert. Wer dem Stereotyp nicht genügt oder unter Unterstellung eines falschen Stereotyps mit den Systemen interagiert, begibt sich der entsprechenden Gratifikation bzw. scheitert in seinen Handlungsvollzügen. Auf die „Negativliste" prominenter Beispiele gescheiter­ter Systemnutzung einschließlich der dadurch ausgelösten Havarien brauche ich nicht einzugehen. Freilich bestehen schon seit längerer Zeit die unterschiedlichsten Möglichkeiten, die Systeme adaptiv zu gestalten und zum einen die Nutzerstereotype so fortzuschreiben, dass sie zunehmend individualisierbar werden und zum anderen die Adaption so zu gestalten, dass sie in erheblichem Maße dynamisiert wird und mit dem Wechsel von Nutzungsstrategien fast Schritt zu halten vermag. Gleichwohl bedarf eine solche A-daptivität bestimmter Kriterien bezüglich der Observablen und Indikatoren die als re­levant erachtet werden, um eine entsprechende Reaktion der Systeme auszulösen. Die Problematik verlagert sich dann in einen höherstufigen Bereich, in dem Stereotype solcher Observablen und Indikatoren als einschlägig relevante Muster ausgezeichnet werden müssen. Wir finden hier in technischer Gestalt wieder, was den Einsatz forma­ler Sprachen generell charakterisiert: die Notwendigkeit einer eindeutigen Zuordnung zu Observablen und Indikatoren für die Modellierung einer extensionalen Semantik. Fehlt hier eine entsprechende Transparenz, auf die sich die Nutzer (on demand) bezie­hen können, so schreibt sich also die erwähnte Problematik auf einer höheren Ebene schlicht fort. Die regelmäßig artikulierten Verluste eines Vertrauens in die Systeme assen sich m.E. darauf zurückführen, dass die mit den Systemen interagierenden Sub­jekte bestimmte Kompetenzen, auf die sie Wert legen, in Frage gestellt sehen.

Kompetenzverluste =

Deinstitutionalisierung und ihre Kompensation

Wissensmanagement




Diese Seite entstand im Kontext von: Besser Wissen (Vorlesung Hrachovec, 2006/07)