Christoph Hubig: Wissensmanagment und Kommunikation in der E-Economy (BW)
Exzerpte aus Christoph Hubig: Wissensmanagment und Kommunikation in der E-Economy. Zum Widerspruch zwischen Rationalisierung und Kompetenzerweiterung. In: U. Frank (Hrsg.): Wissenschaftstheorie in Ökonomie und Wirtschaftsinformatik. WIesbaden 2004. S. 211ff.
Inhaltsverzeichnis
- 1 Die Entwicklung zur E-Economy - Ein Optimierungs- und Rationalisierungsprozess?
- 2 Veränderung von Information, Wissensgenese und Kommunikation
- 3 Explizites und implizites Wissen - Wird letzteres verdrängt?
- 4 Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus
- 5 Kompetenzverluste =
- 6 Deinstitutionalisierung und ihre Kompensation
- 7 Wissensmanagement
Die Entwicklung zur E-Economy - Ein Optimierungs- und Rationalisierungsprozess?
Sprechen wir zunächst über Veränderungen im Objektbereich. Es existiert eine ganze Reihe von Diagnosen zur E-Economy, die auf den ersten Blick triftig erscheinen, welche den Prozess der Informatisierung des Wirtschaftens als Optimierungs- und Rationalisierungsprozess einschlägiger Mittel-Zweck-Verbindungen erachten. Zweifellos lässt sich beobachten, dass von den EntwicklungsprozessenlPrototyping über Logistik und Distribution bis hin zu Nutzung und Entsorgung durch die neuen Möglichkeiten des Informationstransfers Ressourcen besser genutzt werden, Transaktionskosten gesenkt, ferner im Zuge einer Verminderung des Aufwands an Informationsbeschaffung und erhöhte Transparenz Opportunitätskosten gemindert werden können u.v.a. mehr. Beschränkt man sich auf diese Sichtweise, dann entgehen der Analyse vier weitere wesentliche Entwicklungstendenzen mit einschlägigen Konsequenzen, gerade angesichts der Herausforderungen eines Ubiquitous Computing, also den neuen Interaktionsmöglichkeiten mit einer bereits informierten „intelligenten" Umwelt.
Da wären erstens die neu eröffneten und zunehmend erweiterten Möglichkeiten einer Substitution ganzer Workflows durch Delegation dieser Prozesse an die Systeme, wodurch eine in diesen Systemen implementierte Rationalität, deren Operationalisierung dem natürlichen Bewusstsein versagt bleibt, in die Prozesse importiert wird. Wenn die Lösung von Optimierungsproblemen maschinell erledigt wird, werden einerseits Defizite menschlichen Problemlösens überwunden, andererseits, worauf noch einzugehen sein wird, bestimmte Handlungsdimensionen, die sich einer entsprechenden Rationalisierung entziehen, nicht mehr entscheidungsprägend. Sind das dann nur noch Soft-Factors? Zweitens wird ermöglicht, dass tradierte und in bestimmten Bereichen bewährte Handlungsvollzüge und ihre Koordination übertragen werden auf neue Bereiche: Typisches Beispiel ist eine Radikalisierung des Marktgeschehens nach dem Vorbild des Börsenhandels oder Auktionen, welches sich auf alle möglichen Produkte erstrecken kann, die nunmehr entsprechend Angebot, Nachfrage, Qualitätsverfall etc. dynamisch ihre Preise anpassen. Drittens werden neue Act-Types im Bereich ökonomischen Handelns überhaupt ermöglicht. Eine neue Flexibilität sowohl in der Entwicklung und Produktion als auch in der Nutzung kann realisiert werden im Zuge der bereits in der „Magna Charta des Informationszeitalters" beschworenen „Entmassung" der Produktion und Nutzung durch individualisierbare Serienfertigung on demand, Silent CommercelZahlung lediglich noch für die Nutzung bis hin zur Anpassung von Versicherungsprämien in Abhängigkeit vom registrierbaren Risikoverhalten des Versicherungsnehmers. Damit geht auf Seiten der Anbieter die Möglichkeit einer „Inszenierung von Marktbedingungen an der Basis" der Produktentwicklung und Produktion einher mit einer damit verbundenen Flexibilisierung von Unternehmensstrukturen auf sich selbst organisierendes Projektmanagement etc. Viertens werden in neuer Weise höherstufige Koordinationsstrategien realisierbar, indem über die Kommunikations-und Informationssysteme die Interaktion der Nutzerinnen und Nutzer mit diesen Systemen einschließlich des damit verbundenen ökonomischen Handelns unter systemstrategischen Gesichtspunkten optimiert wird im Zuge der - wie die Soziologen sagen - „anonymen Vergemeinschaftung". Anonym deshalb, weil über die direkte Interaktion mit dem System den Nutzern der Einblick in die dadurch ausgelöste Umstrukturierung der Binnenaktivität des Systems versperrt bleibt. Gerade diese letzteren vier Aspekte der E-Economy-Entwicklung lassen es problematisch erscheinen, diesen Prozess als bloßen Rationalisierungsprozess zu erachten, wenngleich Effizienz- und Effektivitätsgewinne damit einhergehen. Es verändert sicher aber hier der Gegenstandsbereich des Wirtschaftens und der damit verbundenen Act-Types- und Handlungsstrategien und gerade hierin liegt eine Provokation zur Reflexion [Hubi03]. Denn der Ertrag der BWL soll doch Rationalisierung i. S. eines Effektivierens der Marktprozesse sein.
Veränderung von Information, Wissensgenese und Kommunikation
Fragen wir zunächst allgemein nach der Rolle des Wissens in solchen Prozessen. Dazu vergewissern wir uns zunächst einiger Schlüsselbegriffe, die geeignet erscheinen, das komplexe Veränderungsgeschehen zu beschreiben: Üblicherweise wird die Genese von Wissen als Prozess begriffen, der über eine Kette vom Signal über die Daten und über die Information zum Wissen führt. Die Glieder dieser Kette, die zwischen Signalen, Daten, Information und Wissen vermitteln, sind Regelsysteme, unter denen die entsprechende Transformation bewerkstelligt wird, i.e.S. die Codes. So steht die Verarbeitung von Signalen zu Daten (natürlich oder maschinell) unter den Regeln, denen unsere Wahrnehmung oder eine Sensortechnik verhaftet sind. Die Transformation von Daten zu Information erfolgt gemäß den klassischen Gesetzen der Informationstheorie, unter denen Daten einen bestimmten Informationswert erhalten, darüber hinaus syntaktischen Codes sowie semantischen Codes, die einen entsprechenden syntaktischen oder semantischen Status der Information bestimmen. Der Übergang von Information zu Wissen, zunächst als Wissen was ist, wird bestimmt durch entsprechend pragmatisch undloder systemfunktional orientierte Codes der Validierung von Information, desgleichen dann der Übergang zu einem Wissen darüber was sein kann über Regeln der Induktion etc. und schließlich einem handlungsleitenden Wissen was sein soll über normative Regeln, Standards, Schemata der VeranlassunglPerlokution. Hinter diesem Bild einer Kette der Wissensgenese bzw. der Wissensakquisition bleibt jedoch ausgeblendet, dass es sich eher um einen Kreislauf handelt. Denn die Gestaltung und Fortschreibung der Codes in Abhängigkeit von dem generierten oder akquirierten Wissen findet beständig statt, so dass sich alle Instanzen - bildhaft ausgedrückt - aneinander abarbeiten und beständig neue Überlegungsgleichgewichte entstehen. Dies lässt sich übertragen auf Kommunikationsprozesse: Signalgeber ist hier der Emmitent einer Nachricht, die die entsprechenden Stationen durchläuft und im Adressaten eine entsprechende Reaktion auslösen sollte qua über dessen Gewahrwerden eines Wissens, was sein soll. Auch hier sind die einschlägigen Gelenkstellen und Codes nicht einfach gegeben: Sie werden unterstellt, entwickelt und fortgeschrieben über wechselseitige Erwartungen bezüglich der Gültigkeit der Codes und Erwartungserwartungen etc., wobei als gelungen oder misslungen erachtete kommunikative Effekte maßgeblich werden für die Fortschreibung der Regeln und umgekehrt. Wesentlich hierbei ist, dass unterschiedliche Kommunikationskanäle parallel einsetzbar sind, um Relativierungen, Bestärkungen, Authentifizierungen oder Entwertungen der Informationen untereinander vorzunehmen. Die Ersetzung der einzelnen Instanzen des Prozesses sowie der dynamischen Codes durch technische Systeme erbringt nun einerseits einen Rationalisierungseffekt, indem sie den Transfer von Signalen über Daten und Informationen zu Wissen absichern und nicht unter einer Fragilität von Codes problematisierbar werden lassen. Sie sind aufgebaut über einen Definitionsbereich, der aus modellierten Weltausschnitten als „Ontologien" besteht. Das Grundproblem, auf welches wir später eingehen werden ist, unterwelchen Kriterien solche Ontologien aufgebaut werden und ob sie den Begriff überhaupt verdienen. Denn eine klassische Ontologie beruhte auf einer Modellierung der Welt als Realität mit dem Anspruch auf Abbildung im weitesten Sinne. Ontologien der Informatiker sind pragmatisch motivierte Darstellungen von Wirklichkeiten (actualitas), die unter funktionalen Gesichtspunkten (Topoi), Kategoremen (Prädikabilien) und Kategorien (Prädikamenten) als vorausgesetzter „Grammatik" des Denkens sowie inhaltlich bestimmter Klassifikationssystemen modelliert werden, unsere Welt charakterisieren. Wie in der Tradition sei Aristoteles und Cicero aufgezeigt, haben solche To-piken ein praktisches - kein theoretisches - Fundament, da sie Theoriebildung erst ermöglichen. Sofern technisch implementierte Ontologien unsere Weltbezüge und Interaktionen formieren, sind sie Welt und ersetzen gewissermaßen eine ursprünglich phänomenale Welt, zu der im Kontext natürlicher Lebensformen ein Bezug erst herzu-stellen ist. Solche technisch implementierten Codes sind fest, verlässlich, beruhen auf anerkannten Normierungen und Idealisierungen. Darin liegt ein Rationalisierungseffekt. Varianz wird reduziert, und der bewusste Abbau von Mehrdeutigkeit „bedeutet zwar zunächst eine Steigerung der Komplexität, die allerdings durch einen Gewinn an reduzierter Komplexität ausgeglichen werden kann - eben durch eine erhöhte Selektivität von (maschineller) Kommunikation" ([Fran99], S. 17). Sie entziehen sich dem direkten Eingriff einer spontanen und im wechselseitigen Abgleich vorgenommenen Fortschreibung, einer Umgewichtung oder Uminterpretation, Ergänzung oder Außerkraftsetzung. Zwar versucht man im Bereich technisch vermittelter Kommunikation den kommunikationsermöglichenden Erwartungen und Erwartungserwartungen über die Gestaltung der Mensch-Maschine-Schnittstellen und Mensch-Maschine-Interfaces zu entsprechen durch den Abgleich der „conceptual interfaces" mit den „perceptual interfaces". Einmal vorgenommen ist dieser Abgleich jedoch fixiert und kann nicht - ohne weiteres - bei der Mensch-Maschine-Kommunikation dynamisiert werden. Genau dies mag erwünscht sein und in vielen Situationen als zielftlhrend erachtet werden. Hier treffen sich „Wissenschaft" mit ihrem Hang zur Idealisierung und Generalisierung und eine Technik, die auf Normierung aus ist. Es wird aber zu prüfen sein, ob hierin nicht auch Defizite liegen können, die dann zu kompensieren wären unter einschlägigen Kompensationsstrategien. Je stärker Wissensakquisition und Kommunikation unter wissenschaftlichen Modellierungen technisch vermittelt sind, umso dringlicher stellt sich die Frage, ob über die Effizienz- und Effektivitätsgewinne hinaus nicht bestimmte Chancen der Intervention in die Prozesse der Wissensakquisition und Kommunikation ausgespart werden, die für sich gesehen wertvoll sind und keineswegs unter Soft-Skills abgewertet werden dürfen.
Explizites und implizites Wissen - Wird letzteres verdrängt?
Kommen wir noch einmal zurück auf Binmores berühmtes Radfahrerbeispiel. Der „unbewusst" schaltende Radfahrer verfügt nicht nur in dem Sinne über implizites Wissen, dass es ggf. explizit rekonstruierbar wäre (a limine als Lösungswissen von Differentialgleichungen). Vielmehr aktiviert er implizit weiteres implizites Wissen spontan nach wechselnden Launen und Absichten, je nachdem, ob er kontrolliert für ein Rennen trainiert, ob er sich ohne Rücksicht auf Verluste am Berg austoben will, ob er situativ bedingt die Landschaft genießen oder Funktionen seinen Rades ausprobieren will etc. Wenn man davon ausgeht, dass explizites Wissen aus (1) identifizierten, (2) klassifiziertenlsystematisierten und (3) als gültig anerkannten Informationen besteht, kann man unterschiedliche Typen impliziten Wissens daran festmachen, wenn eine oder mehrere dieser Bedingungen nicht erfüllt sind. Sinnlichelästhetische Anmutungen ((1) und (2) fehlen), Bekanntheit mit ... ((2) fehlt) oder Vermuten ((3) fehlt), stellen u. a. solche Typen dar. Solcherlei implizites Wissen mit seinen entsprechend defizitären Codes steuert in vielerlei Hinsicht nicht bloß das Verhalten des Radfahrers, sondern auch von Experten oder sonst wie Erfahrenen insbesondere und gerade auch dadurch, dass es in seinen unterschiedlichen Ausprägungen implizit vernetzt ist mit verschiedenen Typen von Präferenzen (impliziten, latenten, unterbestimmt höherstufigen Präferenzenl„Haltungen"lEinstellungen). Hinzu kommt, dass implizites Wissen in mancher Hinsicht unter erkenntnistheoretischen Gesichtspunkten „härter" sein kann als ein explizites Wissen, welches in seinem Explikationsanspruch seiner Grenzen nicht gewahr ist: So lässt sich ein Wissen über Möglichkeiten, die sich explizit nur in ihren Aktualisierungen darstellen, strenggenommen nur als implizites entwerfen, und dasselbe gilt für ein Wissen vom Nichtwissen, welches sich explizit nur in den Spuren des Scheiterns zeigt. Möglichkeitswissen und Nichtwissenswissen sind aber in erheblichem Maße handlungsleitend. Informationssysteme, die explizit-wissensbasiert sind, kommen hier an ihre Grenzen, sofern man nicht bewusst bestimmte Substitute hierfür in die Systeme implementiert, z. B. die Dokumentation von Dialoggeschichten, die Präsentation von Fehlerwissen und gescheiterten Lösungen, Vernetzungen auf Analogie- und Ähnlichkeitsbasis etc. Wir werden später hierauf noch eingehen.
Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus
Kompetenzverluste =
Deinstitutionalisierung und ihre Kompensation
Wissensmanagement
Diese Seite entstand im Kontext von: Besser Wissen (Vorlesung Hrachovec, 2006/07)