Christoph Hubig: Wissensmanagment und Kommunikation in der E-Economy (BW)

Aus Philo Wiki
Wechseln zu:Navigation, Suche

Exzerpte aus Christoph Hubig: Wissensmanagment und Kommunikation in der E-Economy. Zum Widerspruch zwischen Rationalisierung und Kompetenzerweiterung. In: U. Frank (Hrsg.): Wissenschaftstheorie in Ökonomie und Wirtschaftsinformatik. WIesbaden 2004. S. 211ff.


Die Entwicklung zur E-Economy - Ein Optimierungs- und Rationalisierungsprozess?

Sprechen wir zunächst über Veränderungen im Objektbereich. Es existiert eine ganze Reihe von Diagnosen zur E-Economy, die auf den ersten Blick triftig erscheinen, wel­che den Prozess der Informatisierung des Wirtschaftens als Optimierungs- und Ratio­nalisierungsprozess einschlägiger Mittel-Zweck-Verbindungen erachten. Zweifellos lässt sich beobachten, dass von den Entwicklungsprozessen/Prototyping über Logistik und Distribution bis hin zu Nutzung und Entsorgung durch die neuen Möglichkeiten des Informationstransfers Ressourcen besser genutzt werden, Transaktionskosten ge­senkt, ferner im Zuge einer Verminderung des Aufwands an Informationsbeschaffung und erhöhte Transparenz Opportunitätskosten gemindert werden können u.v.a. mehr. Beschränkt man sich auf diese Sichtweise, dann entgehen der Analyse vier weitere wesentliche Entwicklungstendenzen mit einschlägigen Konsequenzen, gerade ange­sichts der Herausforderungen eines Ubiquitous Computing, also den neuen Interakti­onsmöglichkeiten mit einer bereits informierten „intelligenten" Umwelt.

Da wären erstens die neu eröffneten und zunehmend erweiterten Möglichkeiten einer Substitution ganzer Workflows durch Delegation dieser Prozesse an die Systeme, wodurch eine in diesen Systemen implementierte Rationalität, deren Operationalisierung dem natürlichen Bewusstsein versagt bleibt, in die Prozesse importiert wird. Wenn die Lösung von Optimierungsproblemen maschinell erledigt wird, werden einerseits Defi­zite menschlichen Problemlösens überwunden, andererseits, worauf noch einzugehen sein wird, bestimmte Handlungsdimensionen, die sich einer entsprechenden Rationali­sierung entziehen, nicht mehr entscheidungsprägend. Sind das dann nur noch Soft-Factors?

Zweitens wird ermöglicht, dass tradierte und in bestimmten Bereichen bewährte Handlungsvollzüge und ihre Koordination übertragen werden auf neue Berei­che: Typisches Beispiel ist eine Radikalisierung des Marktgeschehens nach dem Vor­bild des Börsenhandels oder Auktionen, welches sich auf alle möglichen Produkte erstrecken kann, die nunmehr entsprechend Angebot, Nachfrage, Qualitätsverfall etc. dynamisch ihre Preise anpassen.

Drittens werden neue Act-Types im Bereich ökono­mischen Handelns überhaupt ermöglicht. Eine neue Flexibilität sowohl in der Ent­wicklung und Produktion als auch in der Nutzung kann realisiert werden im Zuge der bereits in der „Magna Charta des Informationszeitalters" beschworenen „Entmassung" der Produktion und Nutzung durch individualisierbare Serienfertigung on demand, Silent Commerce/Zahlung lediglich noch für die Nutzung bis hin zur Anpassung von Versicherungsprämien in Abhängigkeit vom registrierbaren Risikoverhalten des Ver­sicherungsnehmers. Damit geht auf Seiten der Anbieter die Möglichkeit einer „Insze­nierung von Marktbedingungen an der Basis" der Produktentwicklung und Produktion einher mit einer damit verbundenen Flexibilisierung von Unternehmensstrukturen auf sich selbst organisierendes Projektmanagement etc.

Viertens werden in neuer Weise höherstufige Koordinationsstrategien realisierbar, indem über die Kommunikations- und Informationssysteme die Interaktion der Nutzerinnen und Nutzer mit diesen Sys­temen einschließlich des damit verbundenen ökonomischen Handelns unter systemstrategischen Gesichtspunkten optimiert wird im Zuge der - wie die Soziologen sagen - „anonymen Vergemeinschaftung". Anonym deshalb, weil über die direkte Interakti­on mit dem System den Nutzern der Einblick in die dadurch ausgelöste Umstrukturie­rung der Binnenaktivität des Systems versperrt bleibt.

Gerade diese letzteren vier As­pekte der E-Economy-Entwicklung lassen es problematisch erscheinen, diesen Prozess als bloßen Rationalisierungsprozess zu erachten, wenngleich Effizienz- und Effektivi­tätsgewinne damit einhergehen. Es verändert sich aber hier der Gegenstandsbereich des Wirtschaftens und der damit verbundenen Act-Types- und Handlungsstrategien und gerade hierin liegt eine Provokation zur Reflexion. Denn der Ertrag der BWL soll doch Rationalisierung i. S. eines Effektivierens der Marktprozesse sein.


Veränderung von Information, Wissensgenese und Kommunikation

Fragen wir zunächst allgemein nach der Rolle des Wissens in solchen Prozessen. Dazu vergewissern wir uns zunächst einiger Schlüsselbegriffe, die geeignet erscheinen, das komplexe Veränderungsgeschehen zu beschreiben:

Üblicherweise wird die Genese von Wissen als Prozess begriffen, der über eine Kette vom Signal über die Daten und über die Information zum Wissen führt. Die Glieder dieser Kette, die zwischen Signa­len, Daten, Information und Wissen vermitteln, sind Regelsysteme, unter denen die entsprechende Transformation bewerkstelligt wird, i.e.S. die Codes. So steht die Ver­arbeitung von Signalen zu Daten (natürlich oder maschinell) unter den Regeln, denen unsere Wahrnehmung oder eine Sensortechnik verhaftet sind. Die Transformation von Daten zu Information erfolgt gemäß den klassischen Gesetzen der Informationstheorie, unter denen Daten einen bestimmten Informationswert erhalten, darüber hinaus syn­taktischen Codes sowie semantischen Codes, die einen entsprechenden syntaktischen oder semantischen Status der Information bestimmen. Der Übergang von Information zu Wissen, zunächst als Wissen was ist, wird bestimmt durch entsprechend pragmatisch und/oder systemfunktional orientierte Codes der Validierung von Information, desgleichen dann der Übergang zu einem Wissen darüber was sein kann über Regeln der Induktion etc. und schließlich einem handlungsleitenden Wissen was sein soll über normative Regeln, Standards, Schemata der Veranlassung/Perlokution.

Hinter diesem Bild einer Kette der Wissensgenese bzw. der Wissensakquisition bleibt jedoch ausge­blendet, dass es sich eher um einen Kreislauf handelt. Denn die Gestaltung und Fort­schreibung der Codes in Abhängigkeit von dem generierten oder akquirierten Wissen findet beständig statt, so dass sich alle Instanzen - bildhaft ausgedrückt - aneinander abarbeiten und beständig neue Überlegungsgleichgewichte entstehen.

Dies lässt sich übertragen auf Kommunikationsprozesse: Signalgeber ist hier der Em­mitent einer Nachricht, die die entsprechenden Stationen durchläuft und im Adressaten eine entsprechende Reaktion auslösen sollte qua über dessen Gewahrwerden eines Wissens, was sein soll. Auch hier sind die einschlägigen Gelenkstellen und Codes nicht einfach gegeben: Sie werden unterstellt, entwickelt und fortgeschrieben über wechselseitige Erwartungen bezüglich der Gültigkeit der Codes und Erwartungserwar­tungen etc., wobei als gelungen oder misslungen erachtete kommunikative Effekte maßgeblich werden für die Fortschreibung der Regeln und umgekehrt. Wesentlich hierbei ist, dass unterschiedliche Kommunikationskanäle parallel einsetzbar sind, um Relativierungen, Bestärkungen, Authentifizierungen oder Entwertungen der Informati­onen untereinander vorzunehmen.

Die Ersetzung der einzelnen Instanzen des Prozesses sowie der dynamischen Codes durch technische Systeme erbringt nun einerseits einen Rationalisierungseffekt, indem sie den Transfer von Signalen über Daten und Informationen zu Wissen absichern und nicht unter einer Fragilität von Codes problematisierbar werden lassen. Sie sind aufge­baut über einen Definitionsbereich, der aus modellierten Weltausschnitten als „Ontolo­gien" besteht. Das Grundproblem, auf welches wir später eingehen werden ist, unter welchen Kriterien solche Ontologien aufgebaut werden und ob sie den Begriff über­haupt verdienen. Denn eine klassische Ontologie beruhte auf einer Modellierung der Welt als Realität mit dem Anspruch auf Abbildung im weitesten Sinne. Ontologien der Informatiker sind pragmatisch motivierte Darstellungen von Wirklichkeiten (actuali­tas), die unter funktionalen Gesichtspunkten (Topoi), Kategoremen (Prädikabilien) und Kategorien (Prädikamenten) als vorausgesetzter „Grammatik" des Denkens sowie in­haltlich bestimmter Klassifikationssystemen modelliert werden, unsere Welt charakte­risieren.

Wie in der Tradition seit Aristoteles und Cicero aufgezeigt, haben solche Topiken ein praktisches - kein theoretisches - Fundament, da sie Theoriebildung erst ermöglichen. Sofern technisch implementierte Ontologien unsere Weltbezüge und In­teraktionen formieren, sind sie Welt und ersetzen gewissermaßen eine ursprünglich phänomenale Welt, zu der im Kontext natürlicher Lebensformen ein Bezug erst herzustellen ist. Solche technisch implementierten Codes sind fest, verlässlich, beruhen auf anerkannten Normierungen und Idealisierungen. Darin liegt ein Rationalisierungsef­fekt. Varianz wird reduziert, und der bewusste Abbau von Mehrdeutigkeit „bedeutet zwar zunächst eine Steigerung der Komplexität, die allerdings durch einen Gewinn an reduzierter Komplexität ausgeglichen werden kann - eben durch eine erhöhte Selektivität von (maschineller) Kommunikation". Sie entziehen sich dem direkten Eingriff einer spontanen und im wechselseitigen Abgleich vorgenommenen Fortschreibung, einer Umgewichtung oder Uminterpretation, Ergänzung oder Außer­kraftsetzung.

Zwar versucht man im Bereich technisch vermittelter Kommunikation den kommunikationsermöglichenden Erwartungen und Erwartungserwartungen über die Gestaltung der Mensch-Maschine-Schnittstellen und Mensch-Maschine-Interfaces zu entsprechen durch den Abgleich der „conceptual interfaces" mit den „perceptual interfaces". Einmal vorgenommen ist dieser Abgleich jedoch fixiert und kann nicht - ohne weiteres - bei der Mensch-Maschine-Kommunikation dynamisiert werden. Ge­nau dies mag erwünscht sein und in vielen Situationen als zielführend erachtet werden. Hier treffen sich „Wissenschaft" mit ihrem Hang zur Idealisierung und Generalisie­rung und eine Technik, die auf Normierung aus ist. Es wird aber zu prüfen sein, ob hierin nicht auch Defizite liegen können, die dann zu kompensieren wären unter ein­schlägigen Kompensationsstrategien. Je stärker Wissensakquisition und Kommunika­tion unter wissenschaftlichen Modellierungen technisch vermittelt sind, umso dringli­cher stellt sich die Frage, ob über die Effizienz- und Effektivitätsgewinne hinaus nicht bestimmte Chancen der Intervention in die Prozesse der Wissensakquisition und Kommunikation ausgespart werden, die für sich gesehen wertvoll sind und keineswegs unter Soft-Skills abgewertet werden dürfen.

Explizites und implizites Wissen - Wird letzteres verdrängt?

Kommen wir noch einmal zurück auf Binmores berühmtes Radfahrerbeispiel. Der „unbewusst" schaltende Radfahrer verfügt nicht nur in dem Sinne über implizites Wis­sen, dass es ggf. explizit rekonstruierbar wäre (a limine als Lösungswissen von Diffe­rentialgleichungen). Vielmehr aktiviert er implizit weiteres implizites Wissen spontan nach wechselnden Launen und Absichten, je nachdem, ob er kontrolliert für ein Ren­nen trainiert, ob er sich ohne Rücksicht auf Verluste am Berg austoben will, ob er situ­ativ bedingt die Landschaft genießen oder Funktionen seinen Rades ausprobieren will etc.

Wenn man davon ausgeht, dass explizites Wissen aus (1) identifizierten, (2) klassifi­ziertenlsystematisierten und (3) als gültig anerkannten Informationen besteht, kann man unterschiedliche Typen impliziten Wissens daran festmachen, wenn eine oder mehrere dieser Bedingungen nicht erfüllt sind. Sinnliche/ästhetische Anmutungen ((1) und (2) fehlen), Bekanntheit mit ... ((2) fehlt) oder Vermuten ((3) fehlt), stellen u. a. solche Typen dar. Solcherlei implizites Wissen mit seinen entsprechend defizitären Codes steuert in vielerlei Hinsicht nicht bloß das Verhalten des Radfahrers, sondern auch von Experten oder sonst wie Erfahrenen insbesondere und gerade auch dadurch, dass es in seinen unterschiedlichen Ausprägungen implizit vernetzt ist mit verschiede­nen Typen von Präferenzen (impliziten, latenten, unterbestimmt höherstufigen Präferenzen/"Haltungen"/Einstellungen).

Hinzu kommt, dass implizites Wissen in mancher Hinsicht unter erkenntnistheoreti­schen Gesichtspunkten „härter" sein kann als ein explizites Wissen, welches in seinem Explikationsanspruch seiner Grenzen nicht gewahr ist: So lässt sich ein Wissen über Möglichkeiten, die sich explizit nur in ihren Aktualisierungen darstellen, strengge­nommen nur als implizites entwerfen, und dasselbe gilt für ein Wissen vom Nichtwis­sen, welches sich explizit nur in den Spuren des Scheiterns zeigt. Möglichkeitswissen und Nichtwissenswissen sind aber in erheblichem Maße handlungsleitend. Informati­onssysteme, die explizit-wissensbasiert sind, kommen hier an ihre Grenzen, sofern man nicht bewusst bestimmte Substitute hierfür in die Systeme implementiert, z. B. die Dokumentation von Dialoggeschichten, die Präsentation von Fehlerwissen und ge­scheiterten Lösungen, Vernetzungen auf Analogie- und Ähnlichkeitsbasis etc. Wir werden später hierauf noch eingehen.


Stereotypenbildung und Adaption - Der empirisch gewordene homo oeconomicus

Es war bereits angedeutet, dass die Position der Nutzerinnen und Nutzer von Informa­tionssystemen und wissensbasierten Systemen neben all den Vorteilen des Einsatzes von IT-Technologien auch neue problematische Züge aufweist. Diese sind im Wesent­lichen darin begründet, dass zunächst einmal nicht mehr im Zuge von Wissensakquisi­tion und Kommunikation die tragenden Codes direkt beeinflussbar und fortschreibbar sind. Die klassische Strategie dieses Problem zu bewältigen liegt darin, dass die Sys­teme bezüglich der Bereitstellung und Verknüpfung von Informations- und Wissensbeständen sowie möglicher Strategien des Umgangs mit diesen (z. B. der Gestaltung von Suchpfadalgorithmen) auf entsprechende Adressatenprofile abgestimmt werden. Diese werden von den Entwicklem zusammen mit repräsentativen Nutzern abgegli­chen. Nach der klassischen Definition von Rich, vielfach zitiert, ist ein Adressatenpro­fil „diejenige Sammlung von Nutzereigenschaften als Stereotyp, das alle Informatio­nen umfasst, welche typischerweise wahr sind für diejenigen Nutzer, die das Stereotyp realisieren".

In der Rekursivität dieser Definition liegt das Problem analog zu demjenigen des hermeneutischen Zirkels. Eine Überlegung Franks geht in dieselbe Richtung: „Wenn es etwa einen generellen, formal sprachlich festgelegten Begriff - wir können auch sagen: Konzept - von „Rechnung" gibt, würden aufwändi­ge ggf. wegen semantischer Unterschiede nur unzureichend mögliche und risikobehaftete Transformationen entfallen. Ein weiterer Vorteil ergibt sich durch wesentlich ver­besserte Möglichkeiten ...: Wenn es generelle Konzepte gibt, können beim Entwurf von Software entsprechende Schnittstellen vorgesehen werden, so dass die Soft­ware ... in allen Unternehmen eingesetzt werden kann, deren Informationssysteme diese Konzepte berücksichtigen". Solche generellen Konzepte basieren auf generellen Mustern, die „nicht im Bemühen um Rekonstruktion faktischer Formen des Rechnungswesens entstanden, sondern zielt auf idealtypische Konzepte, die durchaus mit dem Anspruch auf generelle Zweckmäßigkeit verbunden sind". Das ist die Definition von Technik!

Zu Technik und Christoph Hubig siehe diese Sammelrezension.

In der Rekursivität bzw. Zirkularität dieser Fassung wird bereits die Problematik ersichtlich. Denn dasjenige, was im Bereich natürlicher Interaktion und Kommunikation als Wechselspiel von Erwartung und Erwartungserwartung die Dynamik des Verste­hens im so genannten hermeneutischen Zirkel ausmacht, wird hier als Modell (i.S. von Erfüllungsinstanz) einer Konstruktion, die die Handlungsstrategien derjenigen umfasst, die den Rationalitätskriterien der Konstruktion genügen, real implementiert. Wer dem Stereotyp nicht genügt oder unter Unterstellung eines falschen Stereotyps mit den Systemen interagiert, begibt sich der entsprechenden Gratifikation bzw. scheitert in seinen Handlungsvollzügen. Auf die „Negativliste" prominenter Beispiele gescheiter­ter Systemnutzung einschließlich der dadurch ausgelösten Havarien brauche ich nicht einzugehen.

Freilich bestehen schon seit längerer Zeit die unterschiedlichsten Möglichkeiten, die Systeme adaptiv zu gestalten und zum einen die Nutzerstereotype so fortzuschreiben, dass sie zunehmend individualisierbar werden und zum anderen die Adaption so zu gestalten, dass sie in erheblichem Maße dynamisiert wird und mit dem Wechsel von Nutzungsstrategien fast Schritt zu halten vermag. Gleichwohl bedarf eine solche Adaptivität bestimmter Kriterien bezüglich der Observablen und Indikatoren die als re­levant erachtet werden, um eine entsprechende Reaktion der Systeme auszulösen. Die Problematik verlagert sich dann in einen höherstufigen Bereich, in dem Stereotype solcher Observablen und Indikatoren als einschlägig relevante Muster ausgezeichnet werden müssen. Wir finden hier in technischer Gestalt wieder, was den Einsatz forma­ler Sprachen generell charakterisiert: die Notwendigkeit einer eindeutigen Zuordnung zu Observablen und Indikatoren für die Modellierung einer extensionalen Semantik.

Fehlt hier eine entsprechende Transparenz, auf die sich die Nutzer (on demand) bezie­hen können, so schreibt sich also die erwähnte Problematik auf einer höheren Ebene schlicht fort. Die regelmäßig artikulierten Verluste eines Vertrauens in die Systeme lassen sich m.E. darauf zurückführen, dass die mit den Systemen interagierenden Sub­jekte bestimmte Kompetenzen, auf die sie Wert legen, in Frage gestellt sehen.


"Sehr geehrter Herr Dr. XXX,
Wie viele andere Kolleginnen und Kollegen scheitere ich an diesem überkomplizierten und wenig realitätsnahen System, gebe es daher auf, mich in diesem Irrgarten zurechtzufinden, und fordere die Verantwortlichen auf, sich statt dieses beschämenden Beweises von Abgehobenheit etwas Vernünftigeres einfallen zu lassen oder den Hut zu nehmen."
"Liebe Kolleginnen und Kollegen,
ich habe eben versucht, meine Daten in das System einzugeben (ich vermute, die Aufforderung dazu haben alle bekommen). Eine interessante Erfahrung, die die Vermutung nahe legt, dass das nicht ganz ernst gemeint ist; es handelt sich wohl um einen "Betatest beim Kunden"

Kompetenzverluste

Man könnte zunächst einwenden, dass optimal eingestellte Systeme unsere Kompeten­zen als habitualisierte Fähigkeiten und Fertigkeiten, zielführend zu handeln, unterstüt­zen und erweitern. Betrachten wir daher "Kompetenz" genauer. Fähigkeiten sind i.w.S. Dispositionen, die durch Dispositionsprädikate ausgedrückt werden. Diese erkennt man an Endungen wie „-lich" und „-bar". Ohne auf die Problematik von Dispositionsprädikaten weiter einzu­gehen - ein wissenschaftstheoretischer "Dauerbrenner" - sei doch wenigstens darauf verwiesen, dass zur Verwirklichung einer Disposition zwei Komponenten gegeben sein müssen, die man als "Strukturkomponente" sowie als "Komponente der Anteze­denzbedingungen" bezeichnen kann. Für die Disposition "Wasserlöslichkeit" wäre et­wa die Strukturkomponente ein gewisses Kristallgitter, zu den Antezendenzbedingun­gen gehört der Aggregatzustand des Lösungsmediums. Für sportliche Leistungs­fähigkeit wäre eine Strukturbedingung eine gewisse Muskelfaserdichte, eine Aus­gangsbedingung eine hinreichende Kalorienzufuhr (Werbeslogans zur Disposition "Mobilität" verengen die Sichtweise teils auf eine Ausgangsbedingung - „Mars macht mobil" - oder eine Strukturbedingung - „BMW macht mobil"). Das Interessante und Spezifische insbesondere bei menschlichen Kompetenzen liegt nun darin, dass Struk­tur- und Ausgangsbedingungen untereinander wechselwirken. Strukturkomponenten von Kompetenzen entwickeln sich positiv oder negativ bzw. sind fortschreibbar in Abhängigkeit von positiv oder negativ gegebenen Ausgangsbedingungen ihrer Ver­wirklichung, und zugleich verändert sich ihre Abhängigkeit von bestimmten Aus­gangsbedingungen relativ zu ihrer Verfasstheit als Strukturkomponente. Das gilt nun auch für intellektuelle Kompetenzen als Momente von Handlungskompetenz.

Bei der Interaktion mit wissensbasierten und/oder teil"autonomen" Systemen (Autono­mie Selbstgesetzgebung, z.B. unter den im System implementierten Stereotypen oder den Strategien des "Lernens" bzw. der Systemadaption) können nun Kompetenz­verluste in zweierlei Hinsicht auftreten: Im Zuge der anfangs erwähnten Substitution von Handlungsvollzügen bzw. ihrer Delegation an Systeme können diejenigen Wider­standserfahrungen und Lerneffekte entfallen, die zur Entwicklung, Fortschreibung und Erweiterung der Nutzerkompetenz unabdingbar sind, z. B. können Routinisierungsver­luste eintreten; zum anderen können auftretende Erfahrungen von Widerständigkeit oder Zielverfehlung für die Kompetenzfortschreibung und -entwicklung nicht frucht­bar gemacht werden, weil die Zuschreibung der Verursachung an eine ggf. defizitäre Strukturkomponente der Systemkompetenz oder Nutzerkompetenz oder defizitäre An­tezedenzbedingungen für deren Wirksamwerden ("unangemessene Auslegung der Sys­teme" im Blick auf nicht oder falsch antizipierte Umweltbedingungen etc.) nicht mehr eindeutig möglich ist. Entsprechend entfällt die Basis, von der aus ein Zugriff auf die Codes der Signal-, Daten-, Informations- und Wissensverarbeitung motiviert erfolgen kann und im Prozess „natürlicher" Kommunikation ständig erfolgt.

Darüber hinaus aber können Kompetenzverluste auch dadurch eintreten, dass durch die Systeme eine Handlungskoordination unter einschlägigen systemischen Strategien stattfindet - die bereits erwähnte anonyme Vergemeinschaftung -, so dass das interagierende Subjekt nicht mehr in der Lage ist, die systemische Reaktion auf seinen eigenen Input oder In­puts anderer Subjekte zurückzuführen, weil es die systemischen Strategien und/oder den Stand der Systemadaption unter solchen Strategien an den Stand der Inputs ande­rer Subjekte nicht kennt.

Der einschlägige Kompetenzverlust im letzteren Fall ist aber nicht bloß derjenige einer defizitären Fortschreibungsmöglichkeit oder Entwicklungsmöglichkeit allgemeiner Kompetenzen, sondern er wirkt sich besonders destruktiv aus auf die Planungskompe­tenz. Diese These mag nun besonders irritieren, denn wissensbasierte Systeme oder smarte Umgebungen sollen doch gerade das Planen und Disponieren unterstützen und optimieren. Jegliche Planung jedoch beruht auf der Fähigkeit zur Antizipation, welche sich auf verlässliche Stereotypen stützen können muss. Die in guter Absicht verfolgte Strategie, Misslichkeiten der Stereotypenbildung durch Dynamisierung und Erhöhung der Adaptionsfähigkeit der Systeme auszugleichen, führt im Falle von systemischem Koordinieren dazu, dass verlässliche Schemata aufgelöst und sowohl die Systemzu­stände als auch die von ihnen initiierten Formungen der Wirklichkeit nicht mehr anti­zipierbar werden.

Deinstitutionalisierung und ihre Kompensation

Es ist hier nicht der Ort für eine Darstellung der moderneren Philosophie der Institutio­nen bzw. deren Ermöglichungsfunktion individuell rationalen Handelns sowie koordi­nierten Handelns. Als in Organisationen verkörperte Regelsysteme geben sie Möglichkeitsspielräume der Wahl von Mitteln und Zwecken vor und qualifizieren die einschlägigen Optionen qua erwartbarer Gratifikationen und Sanktionen. Zugleich gewähren sie eine "Hintergrunderfüllung" dahingehend, dass im Idealfall die vorgegebenen Möglichkeitsräume individueller Nutzenmaximierung so gestaltet sind, dass die Kompetenz zum Präferieren, Planen, Entscheiden und Realisieren erhalten bleibt. Mit den genannten Effekten von Rationalisierung, Dynamisierung und Flexibi­lisierung geht aber nun eine Deinstitutionalisierung einher, die genau diese Kompe­tenzen bedroht. Und darüber hinaus entfällt die Möglichkeit einer Auseinandersetzung, wie sie mit herkömmlichen Institutionen möglich ist, sei es direkt durch Partizipation am Zustandekommen der Regelsysteme, sei es indirekt durch Verweigerung institutio­neller Leistungen, abweichendes oder regelwidriges Verhalten. Voraussetzung hierfür ist nämlich, dass sich Institutionen und Organisationen in transparenter Weise präsen­tieren, was in der Gesellschaft über die unterschiedlichen Symbolsysteme gewährleis­tet werden soll. (Wenn Bürokratien und Administrationen intransparent werden, gehen sie ihrer institutionellen Leistung verlustig und dies ist in der Regel auch der Beginn ihres Niedergangs).

Die beschriebenen Kompetenzverluste und Verluste an Institutionalisierung lassen sich jedoch ausgleichen, indem man neue kompensatorische Institutionen in den Systemen und neben den Systemen etabliert. Ich bezeichne sie i.w.S. als Foren einer Parallelkommunikation. Auf dem Umweg über solche Foren der Parallelkommunikation kön­nen Effekte gezeitigt und fruchtbar gemacht werden, die im Bereich nicht oder weni­ger technisch vermittelter Wissensakquisition und Kommunikation durch die direkte Intervention in die Prozesse realisiert werden.

Wissensmanagement

Für eine Implementation in die Systeme kommen vornehmlich zwei Typen von Foren der Parallelkommunikation in Betracht - und dies wird ansatzweise bereits realisiert:

(1) Auf einer Ebene, auf der Systeme über ihre Aktionen und die Bedingungen, unter denen diese Aktionen stattfinden und vom System als funktional „erachtet" werden, on demand Auskunft geben, wird Transparenz hergestellt über Strategien und Kriterien des systemischen Agierens, wobei dem Nutzer Optionen eröffnet werden können, sich zu diesen Strategien und Kriterien in ein Verhältnis zu setzen bis hin zu Optionen, hier Veränderungen vorzunehmen - analog zur Option des Zugriffs auf die Codes im Zuge klassischer Wissensgenese, Wissensakquisition und Kommunikation. Der Nutzer kann seine Unterstellungen zur Systemrealität, Systemwirklichkeit und eigener Wirklichkeit überprüfen und eine Bewertung der Ontologien vornehmen bis hin zur Nutzungsver­weigerung.

(2) Wird eine Ebene bereitgestellt, auf der ein Ersatz für die lebensweltlichen Kontexte mit ihrer auf Bewährtheit basierenden faktischen Normativität - positiv oder negativ - realisiert wird. Auf dieser Ebene werden „Kontexte" präsentiert und durch eine ent­sprechende Vernetzung mit einschlägigen systemischen Angeboten die Kontextsensi­tivität der Systeme optimiert: Die Dokumentation von Dialoggeschichten von Fehlern und Misserfolgen im Rahmen einer Fehlerkultur würde erlauben über Handlungsmus­ter hinauszuschauen. (Zur Erstellung einer Fehlerkultur wären genauso Anreizsysteme zu entwickeln wie für die Präsentation von Leistungen, die in misslicher Weise die Int­ranets prägt und einen suboptimalen, rein strategischen und von Misstrauen geprägten Umgang mit den Intranets charakterisiert, wie er vielerorts beklagt wird.) Ferner wür­de die Auszeichnung paradigmatischer Fälle und Profile in Verbindung mit entspre­chenden Optionen fallbasierten Schließens oder der Herstellung schwacher Inferenz­beziehungen qua Analogie etc. jenen Forderungen nachkommen.

Darüber hinaus wäre neben den Systemen ein Raum der Parallelkommunikation über Systemstrategien und Nutzungsstrategien zu etablieren, einer Metakommunikation ü­ber die Systemkommunikation, in dem Erfahrungen ausgetauscht werden können unter Einbezug und Geltendmachen des impliziten Wissens sowie der Veränderung von Codes, welche nicht oder noch nicht in expliziter Form in die Systeme Einzug gehalten haben. Hierdurch könnte ein höheres Maß an „Realitätsverbundenheit" und lebens­weltlicher Authentizitä erreicht werden. (Ein Beispiel hierfür ist das Projekt der Freiburger Wirtschaftsinformatiker zur Rationalisierung von Workflows im Krankenhaus durch Verkürzung von Wartezeiten. Die leitenden Kon­zepte haben den lebensweltlichen Kontext „Krankenhaus" vernachlässigt. Wartezeiten kommt durchaus ein therapeutischer Effekt zu: Kommunikation über Leiden, Thera­pieerfahrungen, Erwartbarkeiten etc. führen zum Abbau von Angst und Stress bei den Patienten.) Nutzerperspektiven, Präferenzen und Dispositionen wären auf jener Ebene zu thematisieren. Damit kann der Zirkel aufgebrochen werden, dass mit dem Erlernen einer Semantik und Ontologie der Systeme durch ihre prospektiven Anwender deren Blickwinkel verengt und das System kritikimmun wird.

Diese Ebene neben den Systemen ist das Forum für die Gewinnung von Instanzen und Kriterien der Evaluierung. Dies betrifft sowohl die Evaluierung konkreter Systemsleis­tungen, also der Systemtechnik, als auch höherstufig die Evaluierung von Ontologien und deren normierten Sprachen, die nur im Diskurs zu bewerten sind und schließlich gar die Evaluierung von Forschungsstrategien als Idealisierungsstrategien. Z.B. kann eine behavioristisch orientierte Forschungsstrategie, wie sie die amerikani­sche Forschung dominiert, durchaus Leistungen erbringen für die Gestaltung von Systemen, etwa eines Accident-Managements, in dem unter Angst und Stress die Reaktion von Individuen unterstützt werden soll; eine eher szenariobasierte Forschungsstrategie kann dort greifen, wo ein planendes, bewusst mit Präferenzen umgehendes Subjekt mit den Systemen und ihren Leistungen interagiert. Ein Austausch auf solchen Ebenen der Parallelkommunikation zwischen Entwicklern und Nutzern sowie der Nutzer unterein­ander kann wichtige Erträge erbringen für ein Re-Engineering der Systemkomponen­ten.

Mithin wird die Aufgabe eines Wissensmanagements immer eine doppelte bleiben: diejenige eines Wissensmanagements bzw. seiner Gestaltung in den Systemen und die­jenige eines Wissensmanagements und seiner Gestaltung neben und für die Systeme und ihre Nutzerinnen und Nutzer. Klar ist, dass Wissensmanagement nur im interdis­ziplinären Kontext vorangebracht werden kann.

Neben dem unter ökonomischen Maßstäben bezifferbaren Wert von Wissen werden und würden über Strategien der Parallelkommunikation Optionswerte realisiert: als Werte (1) von unter anderen Nutzerstereotypen relevantem Wissen sowie (2) als Wer­te, deren Werthaftigkeit in der Eröffnung und Ermöglichung anderer Nutzungsstrate­gie liegt. Die Diskussion um eine Monetarisierung von Opti­onswerten, die bisher, soweit ich sehe, im Bereich der Diskontierungsdebatte unter dem Leitbild des Sustainable Development kontrovers geführt wird, wäre weiter zu entwickeln. Sofern die vielbeschworene "erweiterte Wirtschaftlichkeitsrechnung" beim Einbezug von Optionswerten und insbesondere Optionswerten des Wissens und des Kompetenzerhalts nicht "soft" bleiben und die misslichen Konnotationen von „soft" nicht eine Weiterführung der Forschungslinien verhindern sollen, ist hier noch wesentliches zu tun. Für einen solchen Appell ist das Ende eines Vortrags ein guter Ort.




Diese Seite entstand im Kontext von: Besser Wissen (Vorlesung Hrachovec, 2006/07)