Allgemeine Systemtheorie

Nach dem Buch von Anatol Rapoport

 

1.    Einführung

Die allgemeine Systemtheorie will auf allgemeinster Ebene Gebilde beschreiben, die einerseits aus Einzelteilen bestehen, aber andererseits unlösbar miteinander verbunden sind und eine gemeinsame Funktion erfüllen. Dementsprechend gibt es zum „Erkennen“ eines Systems zwei alternative, einander weitgehend ausschließende Methoden. Bei der analytischen Methode werden die Bestandteile des Systems einzeln und in ihrem Zusammenwirken untersucht, um die Funktion und Wirkungsweise des Gesamtsystems zu verstehen. Bei der ganzheitlichen Methode werden die Reaktionen und das Verhalten des Systems als Ganzes in bestimmten Situationen und bei bestimmten Einwirkungen untersucht, wobei zwar die Funktion des Systems erkannt, seine innere Wirkungsweise aber nicht verstanden werden kann. In vielen Wissenschaftszweigen, insbesondere in Biologie, Psychologie, Ökonomie und Sozialwissenschaften findet man Vertreter beider Auffassungen, die sich gegenseitig nicht anerkennen und verstehen wollen. Die allgemeine Systemtheorie versucht die entgegengesetzten Standpunkte als zusammengehörig zu betrachten und zu vereinigen.

Bei der analytischen Methode steht die Beantwortung der Frage, wie das System funktioniert, im Mittelpunkt des Interesses und ist mit der detaillierten Beschreibung des Systems ausreichend beantwortet, während bei der ganzheitlichen Methode vor allem beantwortet werden muss, wozu das System dient und welche Funktionen es erfüllt. Die Beantwortung beider Fragen ist komplementär und erfordert verschiedenartige Herangehensweisen, um Vollständigkeit beanspruchen zu dürfen.

Vom analytischen Standpunkt aus ist ein System definiert durch die Menge aller seiner möglichen Zustände, die es annehmen kann und die jeweils durch die momentanen Werte aller seiner Variablen gegeben sind. Vom ganzheitlichen Standpunkt ist ein System zu definieren durch seine Invarianten, d.h. diejenigen Größen, die in allen seinen Zuständen unverändert erhalten bleiben und seine Identität bestimmen.

Wenn beim analytischen Herangehen zunächst nur lineare Abhängigkeiten untersucht werden, erfolgt durch Berücksichtigung aller Zusammenhänge ein  Schritt in Richtung einer holistischen Betrachtungsweise, die in der Erkenntnis mündet, dass ein System mehr ist als die Summe seiner Einzelteile.

Bei der Betrachtung von Systemen ist Ursache und Wirkung oft nicht objektiv unterscheidbar und damit vertauschbar. Letztlich ist Ursache immer das, was willkürlich oder von außen her manipulierbar ist oder manipuliert wird. Was dabei konstant bleibt, charakterisiert das Wesen des Systems.

Von analogen Systemen spricht man, wenn mit unterschiedlichen Strukturen und in unterschiedlichen Zusammenhängen die gleiche Funktionalität realisiert wird. Wenn die Wirkungsweise eines Systems durch analytische Untersuchungen erklärt und verstanden ist, akzeptiert der menschliche Verstand ein analoges System als gleichermaßen erklärt und verstanden.

In der Systemtheorie gestattet das organismische Paradigma die Untersuchung analoger Strukturen und funktionaler Beziehungen auf verschiedenen hierarchischen Systemebenen. In den aufeinander aufbauenden biologischen und sozialen Systemebenen von

lassen sich analoge Strukturen, Funktionen und Entwicklungen mit ähnlichen Beziehungen zueinander identifizieren (Schema von Gerard). Die Strukturen beschreiben die statischen Beziehungen der Systemelemente der jeweiligen Ebenen, die Funktionen das Verhalten und die Art und Weise der unmittelbaren Reaktion des Systems auf Einwirkungen von außen und die Entwicklungen die langanhaltenden und typischerweise nicht umkehrbaren Änderungen des Systems im Laufe seiner Lebensgeschichte. Die Strukturen bestimmen die Funktionen und die Entwicklungen bestimmen die Veränderungen der Strukturen. Die Funktionen gewährleisten die Aufrechterhaltung eines inneren Gleichgewichtes und die Entwicklungen die Anpassung des Systems an die Veränderungen der Umwelt.

Ein zu dem von Gerard alternatives Schema von Miller beschreibt nicht abstrakte Aspekte der Systeme sondern konkrete Untersysteme, die auf den verschiedenen Systemebenen gleiche Funktionen realisieren. Rapoport hält aber das Miller’sche Schema für nicht genügend verallgemeinerungsfähig.

Die Analogien verschiedener Systeme sind am besten erkennbar, wenn die Systeme durch mathematische Modele beschrieben werden können.

Lebende Systeme unterscheiden sich von leblosen vor allem dadurch, dass sie zerstörerischen Einwirkungen der Umwelt nachhaltiger widerstehen. Sie behalten ihre Identität inmitten von Veränderungen. Die traditionelle analytische Wissenschaft ist gut in der Lage, sowohl mit organisierten einfachen Systemen als auch mit chaotischen komplexen Systemen umzugehen. Lebendige Organismen sind jedoch Beispiele organisierter Komplexität, die sich einer analytischen Behandlung und einem analytischen Verständnis weitgehend entziehen. Ihre Zielgerichtetheit kommt von innen heraus und kann von außen nur holistisch untersucht werden. Damit die allgemeine Systemtheorie auch diese Systeme erfassen und behandeln kann, muss von der analytischen Betrachtungsweise abgegangen und müssen holistische Methoden einbezogen werden.

Der Schnittpunkt des analytischen und des ganzheitlichen Vorgehens ist begrifflich schwer zu durchdringen. Die unter dem analytisch-naturwissenschaftlichen Paradigma der Erkenntnis geforderte Klarheit der Begriffe kann unter holistischer Vorgehensweise nicht erwartet werden. Auch wenn sich die Argumente holistischer Vertreter gegen die Vorherrschaft des Erkenntnisparadigmas der Naturwissenschaften nicht durch Klarheit auszeichnen, haben sie überall dort eine gewisse Berechtigung, wo introspektive Forschungsergebnisse nicht ignoriert werden können. Die allgemeine Systemtheorie muss daher weiter versuchen, analytische und holistische Forschungsmethoden und Forschungsergebnisse zu vereinigen.

 

2.    Der klassische mathematische Zugang

Am allgemeinsten und zugleich am schärfsten ist ein System definiert, wenn die Beziehungen seiner Elemente mathematisch formuliert werden können. Dabei kann jedes System mit n Freiheitsgraden x(t) = (x1,x2,...,xn) durch eine Differenzialgleichung dx/dt = f(x,t) mit f = (f1,f2,...,fn,t) eindeutig definiert werden.  Die einfachsten Funktionen mit n Variablen sind lineare Funktionen der Form

Fi  = Σj aij xj + ci ,     (i = 0 1, 2, ..., n)

wobei die aij und ci beliebige Funktionen der Zeit t sein können. Durch Koordinatentransformation xi’ = xi + δi verschwinden die ci und bestimmen die δi.

Das resultierende System homogener Differentialgleichungen erster Ordnung

dx/dt = A x(t) ist bei konstanten Koeffizienten A vollständig lösbar und enthält n Konstanten, die durch n voneinander unabhängige Bedingungen bestimmt sind. Das einfachste System dieser Art mit  2 Variablen beschreibt einen harmonischen Oszillator, der je nach den Werten der von seiner Struktur bestimmten Parameter durch eine der folgenden Stabilitätseigenschaften charakterisiert ist:

Von besonderem Interesse sind Systeme, die asymptotisch stabil im Ursprung, aber nicht im Ganzen sind. Solche Systeme werden bei großen Auslenkungen vom stabilen Gleichgewichtszustand instabil  oder sie haben mehrere stabile Gleichgewichtszustände.

Sind die Koeffizienten A der linearen Differentialgleichung nicht konstant, sondern zeitabhängig, so kann die allgemeine Lösung nicht mehr durch elementare Funktionen dargestellt werden, sondern enthält Reihenentwicklungen, deren Konvergenznachweis und damit auch der Nachweis der Stabilitätseigenschaften des Systems schwierig sein kann.

Enthalten die Differentialgleichungen nichtlineare Funktionen der Zustandsvariablen x , so sind sie nicht mehr allgemein, sondern nur in Spezialfällen lösbar. Dann muss auf numerische Lösungen zurückgegriffen werden, was umfangreiche Berechnungen für alle in Frage kommenden Kombinationen der Zahlenwerte der Systemparameter erfordert.

Wird nicht die gesamte Lösung gefragt, so können Aussagen zu den Stabilitätseigenschaften jedoch mit analytischen Methoden in beachtlicher Allgemeinheit gefunden werden: Lineare Systeme mit konstanten Koeffizienten haben höchstens einen Gleichgewichtspunkt, nur nichtlineare Systeme können mehrere besitzen. Sind die das System bestimmenden Funktionen f(x) nicht explizit von der Zeit abhängig, so ist das System stabil im Ursprung, wenn eine Lyapunow - Funktion V(x) mit den Eigenschaften V(0) = 0 ; V(x) > 0 für alle x 0  und mit

 dV/dt = (V/x)T f(x) 0 existiert. Da aber keine allgemeine Methode zur Konstruktion einer solchen Funktion bekannt ist, bleibt der Existenzbeweis schwierig und hängt davon ab, ob man eine solche Funktion findet. Beim harmonischen Oszillator ist es einfach. Dort ist die Gesamtenergie des Systems eine Lyapunow – Funktion, die ja  im Gleichgewichtspunkt ihr Minimum erreicht.

Die mathematische Formulierung der Dynamik von zwei Populationen, die miteinander in Wechselwirkung stehen, führt auf ähnliche Systeme von zwei linearen Differenzialgleichungen mit maximal 4 Parametern, welche die innerspezifische und die zwischenspezifische Wechselwirkung der Individuen beschreiben. Rapoport analysiert die Stabilität solcher Systeme für ein Wettrüstungsmodell, für konkurrierende Populationen, für Räuber – Beute – Beziehungen, für Symbiose, für Parasitismus und für ein Modell der Verstädterung. In allen Fällen gibt es nur dann Gleichgewichtszustände, wenn eine Kombination der die innerspezifischen Wechselwirkungen bestimmenden Parameter größer ist als eine Kombination der die zwischenspezifischen Wechselwirkungen beschreibenden. In den anderen Fällen ist das System instabil und je nach den Anfangsbedingungen stirbt die eine oder die andere Population aus und die Symbiose verwandelt sich in Parasitismus. Wenn in der Phasenebene der Trajektorien eine Dichtefunktion definiert werden kann, deren Volumenintegral zeitlich konstant bleibt, muss das System nicht unbedingt asymptotisch stabil sein und einen Gleichgewichtspunkt anstreben, ist aber konservativ und besitzt eine Erhaltungsgröße wie etwa Energie oder Gesamtmasse. Letzteres ist beim Räuber – Beute – System der Fall.

Befindet sich ein System im Gleichgewicht, so haben seine Zustandsvariablen Gleichgewichtswerte angenommen. Diese Werte werden aber von den Systemparametern bestimmt und können sich ändern, wenn sich letztere ändern. Dabei kann das System im Gleichgewicht bleiben oder es kann instabil werden. Bleibt es stabil, so werden die Gleichgewichtswerte der Systemvariablen zu abhängigen Variablen der Systemparameter. In dieser Sicht ist die Trajektorie des Systems der Pfad seines Gleichgewichtszustandes im Phasenraum.

Wenn sich die Systemparameter langsam verändern, so gestattet die schnelle Mikrodynamik des Systems den Systemvariablen, schnell neue Gleichgewichtswerte anzunehmen, so dass das System im Gleichgewichtszustand verbleiben kann. Wenn solche Gleichgewichtszustände existieren, gibt es immer auch eine Funktion F(x) der Zustandsvariablen x, die an den Gleichgewichtspunkten Minimalwerte annimmt. An diesen Stellen hat die Ableitung F’(x) Nullstellen. Diese Nullstellen sind wiederum eine Funktion der m Parameter an , die kritische Mannigfaltigkeit genannt wird, eine Hyperfläche im (m+1)-dimensionalen Raum darstellt und mehrwertig sein kann, wenn F’(x) mehrere Nullstellen besitzt, F(x) also mindesten dritter Ordnung in x ist. Wenn F(x) mindestens vierter Ordnung ist, können 2 Minima auftreten und das System kann mehr als einen Gleichgewichtszustand besitzen, zwischen denen es bei stetigen Parameteränderungen plötzlich wechseln kann. Solche plötzlichen Systemveränderungen werden Katastrophen genannt. Diese sind damit verbunden, dass der Zustand des Systems nicht mehr eindeutig von den Systemparametern bestimmt ist, sondern innerhalb eines Verzweigungsbereiches der Parameter auch von der Historie des Systems, also von der Trajektorie der Systemparameter abhängt (Histeresiseffekt). Solche plötzlichen Systemveränderungen treten auf, wenn die Zündtemperatur eines explosiven Gemisches erreicht wird, eine übersättigte Lösung kristallisiert, ein Ballon platzt, bei Kriegsausbrüchen, Revolutionen und Paniken, bei mehrdeutigen Wechselbildern und bei Parameteränderungen Bayesscher Entscheidungsmodelle.

Die Analyse mathematischer Systemmodelle kann dazu beitragen, Systemverhalten auf unterschiedlichsten Anwendungsgebieten besser zu verstehen, auch wenn die untersuchten Modelle reale Systeme nur unvollkommen simulieren.

 

3.    Wiedererkennung und Bewahrung der Identität

3.1. Analytische Betrachtung

Eine für Systeme charakteristische Eigenschaft ist die Bewahrung ihrer Identität bei gleichzeitiger Veränderung der Systemparameter. Dies erfordert eine nähere Beschreibung dessen, was denn nun die Identität eines Systems ausmacht und was nicht. Ein System bleibt dasselbe, auch wenn alle seine Bestandteile ausgewechselt werden und sich die Systemparameter ändern, ihre Beziehungen aber erhalten bleiben. Die Konstanz des Systems beruht auf der Erhaltung eines Gleichgewichtszustandes, der stabil oder instabil sein kann. Stabile Gleichgewichtszustände bleiben ohne äußere Einwirkungen erhalten, instabile Gleichgewichtszustände können nur in offenen Systemen aufrecht erhalten werden und beruhen auf einem zugrundeliegenden stochastischen Prozess, der eine stabile Wahrscheinlichkeitsverteilung der Werte einer Zufallsvariablen erzeugt. Je nach dem zugrundeliegenden Prozess entstehen bestimmte Typen von Wahrscheinlichkeitsverteilungen. Bekannte Typen solcher Wahrscheinlichkeitsverteilungen sind die Gauss’sche Normalverteilung (z.B. bei Messprozessen), die Poisson – Verteilung (bei radioaktiven Zerfallsprozessen) und die negative Binomialverteilung (bei Unfallstatistiken). Aus der Beobachtung von Wahrscheinlichkeitsverteilungen der Zufallvariablen kann bei hinreichender Datenmenge auf die Gesetzmäßigkeiten der zugrundeliegenden Prozesse geschlossen werden, die das betrachtete System kennzeichnen und identifizieren. Je mehr Daten beobachtet werden, um so genauer kann ein beobachtetes System klassifiziert und wiedererkannt werden. Ein ähnliches Problem tritt bei der Mustererkennung auf, das von zentraler Bedeutung für die Entwicklung künstlicher Intelligenz ist. Hier hängt der Erkennungsprozess entscheidend davon ab, wie viele Invarianten das zu erkennende System besitzt, die zu seiner Kategorisierung dienen können. Die Nervensysteme von Tieren sind darauf spezialisiert, insbesondere solche Muster schnell zu erkennen, die für ihr Überleben wichtig sind.

Ein zentrales Problem lebender Systeme ist ihre Fähigkeit, einen inneren Gleichgewichtszustand bei Veränderungen äußerer Bedingungen aufrecht zu erhalten. Körpertemperatur, Konzentration von Salzen, Zuckern und anderen Substanzen, die Anzahl der Pulsschläge, die Menge der Hormonausschüttungen usw. müssen innerhalb bestimmter Grenzen bleiben.

Ein stabiles System besitzt Regelungsmechanismen, die in der Lage sind, die für das Gleichgewicht wesentlichen Variablen innerhalb gewisser Grenzen zu halten. Werden diese Grenzen überschritten, wird das System instabil und zerfällt.

Ein ultrastabiles System aber ist in der Lage, seine Operationsregeln zu verändern, wenn diese Grenzen überschritten werden und dadurch seine Stabilität wieder herzustellen. Dies wird durch ein innewohnendes Prinzip der zufälligen Suche ermöglicht, das die Operationsregeln ändert und an die veränderten Bedingungen anpasst. Diese Verhaltensanpassung des Individuums heißt Lernen und ist auch unbewusst möglich, bewusstes Lernen aber führt zu Wissen. Die Verhaltensanpassung des Individuums durch Lernen erfolgt durch den Selektionsdruck zur Erhaltung des Individuums. Der strukturell analoge Selektionsdruck zur Erhaltung der Population führt zur Evolution der Gene. Auf der nächsten Stufe der Anpassung aber lernt der mit Bewusstsein ausgestattete Mensch das Lernen, d. h. Lernstrategien zum besseren Lernen.

 

3.2.        Holistische Betrachtung

Die Bewahrung seiner Identität ist aktives Bestreben eines jeden Systems. Hierzu entwickelt jedes System eine Art von Filtern, die das Eindringen von Substanzen und Informationen, welche die Identität des Systems in Frage stellen könnten, behindern. Auf der Bewusstseinsebene erzeugt dieser Filter eine kognitive Dissonanz, die eine objektive Wahrnehmung und Erkenntnis von Sachverhalten verfälscht und in das subjektive Abbild der Umwelt einpasst. Ein solches Verhalten ist nicht nur dem Individuum eigen und charakterisiert seine Persönlichkeit, sondern ist auch bei sozialen Systemen, Organisationen und Institutionen feststellbar und erzeugt dort kulturelle Eigenheiten und Gruppenbewusstsein, die durch Machtstrukturen gefördert und verstärkt werden.

Auf der ersten Stufe hält ein kybernetisches System seine Funktionen durch Regelung des inneren Gleichgewichtes aufrecht und verknüpft seine Inputs in festgelegter Art und Weise mit seinen Outputs, wodurch ein von außen vorgegebener Zweck erfüllt wird. Auf der zweiten Stufe löst sich das System von den von außen vorgegebenen Zwecken und wird autonom und autopoietisch. Struktur und Organisation des Systems werden dann nicht mehr von den Funktionen des Systems bestimmt, sondern diese dienen nunmehr nur noch der Aufrechterhaltung der Autonomie und Identität des Systems. Das System wird damit ein sich selbst organisierendes System. Derartige autonome Systeme reagieren auf Einwirkungen aus der Umwelt durch interne Umorganisation, um die Eigentümlichkeiten ihrer Autonomie beizubehalten. Solches Verhalten zeigen oft bestimmte Bürokratien, Firmen und Militärinstitutionen, bei denen die ursprüngliche Funktion und Zweckbestimmung in den Hintergrund treten.

 

4.    Organisation

Organisation ist ein zentrales Thema der Systemtheorie. Zu unterscheiden ist jedoch zunächst die Theorie der Organisation von der Theorie der Organisationen. Erstere behandelt abstrakt die allgemeinen Eigenschaften organisierter Ganzheiten, letztere die konkreten Eigenschaften von sozialen Zusammenschlüssen von Menschen, deren Tätigkeiten meist zur Erreichung bestimmter Ziele koordiniert werden. Die Theorie der Organisation geht davon aus, dass Organisation durch Schaffung einer Struktur zur Verminderung von Unordnung führt, was mit Entstehung und Übermittlung von Information verbunden ist. Organisation bedeutet Ordnung und geordnetes Wissen und damit Verminderung der Entropie des Systems. Organisation kann als Systemeigenschaft von außen her aber meist nicht objektiv erkannt werden, da die Bedeutung der übermittelten Information vom subjektiven Vorwissen des Beobachters abhängig ist. Der Zusammenhang von Organisation, Information, Organisationstheorie und Informationstheorie wird vom Autor zwar an Beispielen aufgezeigt, aber nicht näher spezifiziert.

Die Theorie der Organisationen definiert eine Organisation als eine Gruppe von Personen, deren Handlungen und Entscheidungen mit bestimmten Regeln übereinstimmen, die ihren gemeinsamen Interessen dienen. Eine solche Organisation ist an dem einen Ende des Spektrums ein voll autonomes System, dessen Organisationsgrad allein im Hinblick auf die Erhaltung seiner Lebensfähigkeit als rein inneres Ziel zu beurteilen ist, am anderen Ende ein System, das die Erfüllung einer bestimmten Aufgabe zu gewährleisten hat, die unabhängig von der betreffenden Organisation definiert ist. Davon ausgehend kann man 4 Typen von Vereinigungen unterscheiden:

Die ersten drei Typen werden auch in der Spieltheorie herausgearbeitet, während der 4.Typ die einzige Organisationsform ist, in der es keine Interessenkonflikte gibt und die ein äußeres Ziel verfolgt. Ein Team muss organisiert werden, um eine zweckgerichtete Aktivität auf wirkungsvollste Art und Weise zu verfolgen, was Entscheidungen erfordert, die Gegenstand einer Entscheidungstheorie als integrierender Bestandteil der Organisationstheorie sind.

Die Bedeutung der Kommunikation und Organisation für die Lösung einer einem Team gestellten Aufgabe, an der alle Teammitglieder beteiligt sein müssen, wurde durch einfache Experimente und theoretische Analysen untersucht. Verglichen wurden drei alternative Kommunikationsnetze mit je 5 Teilnehmern:

Es stellt sich heraus, dass Aufgaben am effektivsten in der Rad-Struktur und am wenigsten effektiv in der Kreis-Struktur zu lösen sind. In der All-Kanal-Struktur organisiert sich das Team zur effektivsten Lösung der Aufgabe zunächst in eine Rad-Struktur, was aber bei der Kreisstruktur nicht möglich ist. Demnach ist die zweistufige Hierarchie, die bei der Radstruktur nahegelegt ist und bei der All-Kanal-Struktur möglich ist, effektiver als die bei der Kreisstruktur einzig mögliche dreistufige.

Die Lösung jeder Aufgabe erfordert die Ausführung einer Handlung, nach dem eine Entscheidung über mögliche Handlungsalternativen getroffen wurde. Eine Entscheidung sollte den zu erwartenden Nutzen der jeweiligen Handlungsalternative maximieren, erfordert damit die Beschaffung und Berücksichtigung von Informationen über den Ausgangszustand und die möglichen Folgezustände der Handlungen. Die Beschaffung der erforderlichen Informationen verursacht Kosten, die den jeweiligen Nutzen der Handlung vermindern. Nur vollständige Informationen über alle Handlungsalternativen können zu einer Entscheidung führen, die mit Sicherheit den maximalen Nutzen realisiert. Die Kosten für die Beschaffung vollständiger Informationen übersteigen aber in den meisten Fällen den Nutzen der Handlungen, mindestens aber den Nutzensunterschied verschiedener Handlungsalternativen. Deshalb werden Entscheidungen typischer Weise immer unter dem Risiko entschieden, dass der erwartete Nutzen nicht eintritt bzw. die Entscheidung falsch war. Eine richtige Entscheidung muss deshalb das Risiko berücksichtigen und von dem erwarteten wahrscheinlichen Nutzen ausgehen.

Je mehr Informationen beschafft werden, desto geringer wird das Risiko einer Fehlentscheidung, das quantitativ mit Hilfe des Bayes-Theorems berechnet werden kann. Das erhellt die Bedeutung, die der Beschaffung von Informationen, der Informationstheorie und der Gestaltung brauchbarer Informationskanäle und Kommunikationsnetze im Rahmen der Organisationstheorie zuzumessen ist.

Gleichermaßen sind bei der inneren Organisation eines Teams aber auch die Unterschiedlichkeit der Interessen und Fähigkeiten der Teammitglieder und die Autonomiebestrebungen des Teams zu berücksichtigen, um eine effektive Erfüllung der Aufgaben zu sichern.

Die Organisationstheorie untersucht daher die horizontale und vertikale Organisationsstruktur aufgabenorientierter Gruppen zur Erfüllung äußerer Ziele. Die horizontale Struktur spiegelt die unterschiedliche Spezialisierung und optimale Arbeitsteilung, die vertikale Struktur die Koordination der Entscheidungen und Aktivitäten und die Rolle von Autorität und Macht bei der Motivation der Leistungserbringung wider. Dabei spielen auch die Probleme der Eingliederung neuer Mitglieder, teamspezifisches Wissen und die Herausbildung teamspezifischer Symbolik und Sprache und einer teambezogenen Autonomieentwicklung eine Rolle.

5.    Zielgerichtetheit

Der Autor erläutert und vertritt  den Standpunkt, dass teleologisch formulierte und analytisch-kausal formulierte Erklärungen und Ursachen von Vorgängen grundsätzlich miteinander vereinbar sind. Welcher aber der Vorzug zu geben ist, hängt vom Zweck ab, dem die Erklärung dienen soll. Es ist aber davon auszugehen, dass auch zielgerichteten Vorgängen stets kausal begründbare Wirkursachen zugrunde liegen. Deshalb sollten ideologische und erkenntnistheoretische Rechtfertigungen von teleologischen Erklärungen zurückgewiesen werden, während die pragmatische Rechtfertigung anerkannt werden kann. Diesem Standpunkt liegt eine weltanschaulich-rationale Einstellung zugrunde, die davon ausgeht, dass Zweckursachen empirisch weder nachweisbar noch widerlegbar, aber trotzdem zur Erklärung von Vorgängen zweckmäßig und nützlich sind. So ist es z. B. zulässig, den Gleichgewichtszustand, dem ein dynamisches System zustrebt, als zu erreichendes Ziel des Vorgangs anzusehen. In diesem Sinne sind alle dynamischen Systeme zielgerichtet.

Die Gleichwertigkeit analytisch – kausaler Betrachtungsweise mit rational-zielgerichteter demonstriert Rapoport durch mehrere Beispiele: In einem Nullsummenspiel mit einer bestimmten Nutzensstruktur gibt es kein strategisches reines Gleichgewicht, es existiert aber ein gemischtes Gleichgewicht, dessen Strategie durch eine rationale Berechnung gefunden werden kann, die einfache Automaten aber nicht ausführen können. Dennoch finden diese durch Rückkopplung der erzielten Gewinne mit den gewählten Spielvarianten in häufig wiederholten Spielen im Mittel dasselbe gemischte Gleichgewicht und realisieren im Mittel den gleichen Nutzen. Es scheint so, als ob diese Automaten zielgerichtet handeln würden.

Die gleiche scheinbare Zielgerichtetheit findet man bei der Einstellung des Geschlechterverhältnisses auf 1:1 bei den meisten sich sexuell vermehrenden Arten, bei der zurückhaltenden Art, in der Rivalenkämpfe bei vielen Tierarten geführt werden und bei unbewussten Lernvorgängen, mit denen die meisten Geschicklichkeiten erworben werden. In allen diesen Fällen scheint sich ein dynamisches System zielgerichtet zu verhalten, als ob es ein bestimmtes Ergebnis anstreben würde, bei genauer Analyse der Wirkursachen zeigt sich jedoch, dass es sich stets um die sich stochastisch einstellende gemischte Strategie in einem Spiel handelt, in dem es kein reines Gleichgewicht gibt.

Die Beschreibung kausal verbundener Prozesse in einem System als zielgerichtetes Handeln entspricht der Beobachtung, Analyse und Interpretation der Bewegung eines komplexen dynamischen Systems als Verfolgung einer Zielvorstellung, der rationale Entscheidungen zu ihrer Realisierung zugrunde liegen. Dementsprechend gibt es zwei Zweige der Entscheidungstheorie. Die normative Entscheidungstheorie geht davon aus, dass Ziele vorgegeben sind, die durch axiomatisch vorgeschriebene Entscheidungsmethoden optimal anzustreben  sind. Die empirische Entscheidungstheorie beobachtet in einem System ablaufende Prozesse und versucht daraus zu erschließen, welche scheinbaren Ziele von dem System verfolgt werden. Neben dieser Klassifizierung in normative und empirische gliedert sich die Entscheidungstheorie entsprechend der vier untersuchten Problemkreise in Entscheidungsprobleme mit einem einzigen Handelnden und einem einzigen Ziel, mit einem Handelnden und mehreren Zielen, mit mehreren Handelnden, die ein einziges Ziel verfolgen und mit mehreren Handelnden mit mehreren Zielen.

Entscheidungssituationen mit einem Handelnden und einem Ziel werden weiter klassifiziert als Entscheidungen unter Gewissheit, Entscheidungen unter Ungewissheit und Entscheidungen unter Risiko.

Entscheidungen unter Gewissheit haben immer dann ein eindeutiges Ergebnis, wenn der Handelnde den Ausgangszustand kennt und die Folgen mindestens in eine Reihe von Präferenzen ordnen kann. Dies ist aber dann nicht der Fall, wenn die Unterschiede der Folgen unter der Wahrnehmungsschwelle liegen.

Entscheidungen unter Ungewissheit liegen vor, wenn die Folgen einer Entscheidung von mehreren möglichen Naturzuständen (Ausgangszuständen) abhängen, deren Vorliegen der Handelnde nicht kennt und nicht beeinflussen kann. Auch wenn der Handelnde eine eindeutige Präferenzrangliste der Folgen aller möglichen Handlungsalternativen hat, gibt es vier verschiedene Entscheidungsprinzipien, die zu unterschiedlichen Handlungsalternativen führen können.

Welches dieser 4 Entscheidungsprinzipien zu wählen ist, erscheint willkürlich, die letzten drei sind aber nur sinnvoll anwendbar, wenn der Präferenzrangliste mindestens eine Intervallskala zugrunde liegt.

Falls eine Zuordnung von Wahrscheinlichkeiten zu den Naturzuständen  durch Erfahrungen, Informationen oder Überzeugungen möglich ist und die Intervallskala der Präferenzen einen Nutzen repräsentiert, handelt es sich um Entscheidungen unter Risiko, die den wahrscheinlich zu erwartenden Nutzen maximieren.

Entscheidungsprobleme mit einem Handelnden und mehreren Zielen, die nicht alle zugleich erreicht werden können, erfordern mindestens eine Ordnung der Ziele nach Präferenzen. Solche Probleme sind formal  isomorph mit dem Problem der gesellschaftlichen Wahl, bei dem mehrere Teilnehmer unterschiedliche Bevorzugungsordnungen für die möglichen Handlungsalternativen haben, weil sie den Nutzen des zu erreichenden Ziels qualitativ individuell und unterschiedlich einschätzen. Von einer zentralen Stelle müssen dann die individuellen Bevorzugungsordnungen zu einer gesellschaftlichen Bevorzugungsordnung verschmolzen werden (Demokratieproblem). In beiden Problemen kann nach objektiven Kriterien keine optimale Präferenzordnung gefunden werden, weil die zur Entscheidung aufstellbaren rationalen axiomatischen Regeln in sich nicht widerspruchsfrei sind (Arrows Unmöglichkeitstheorem). Die „einfältigste“ Methode zur Verschmelzung verschiedener Präferenzordnungen besteht darin, die Ordnungszahlen zu addieren und deren Summe danach neu zu ordnen, wobei jede Bewichtung unterschiedlicher Objekte unterlassen und vermieden wird. Jeder Versuch einer Bewichtung enthält eine subjektive Komponente, die derjenige festlegt, der die Kriterien für die Bewichtung auswählt. Dies ist darin begründet, dass es keine eindimensionale Werteskala gibt, auf welcher der Nutzen qualitativ unterschiedlicher Ziele bzw. die individuelle Nutzenseinschätzung verschiedener Personen eindeutig dargestellt werden könnte.

Die empirische Entscheidungstheorie geht deshalb davon aus, die in der Praxis in bestimmten charakteristischen Problemfällen getroffenen Entscheidungen einer Regressions- und Varianzanalyse zu unterziehen, um wenigstens eine intersubjektive Entscheidungsregel herauszuarbeiten, nach der die Bewichtung unterschiedlicher Nutzensmerkmale erfolgen oder die Zielmerkmale in einer Präferenzliste geordnet können.

Entscheidungsprobleme mit mehreren Handelnden, die ein einziges Ziel verfolgen, können als Spiele formuliert und von der Spieltheorie untersucht werden.

Haben die Handelnden gleiche Interessen, ist das Spiel konfliktlos. Die optimale Lösung kann aber bei mehreren Gleichgewichten nur gefunden werden, wenn die Handelnden kommunizieren können oder wenn ihre Interessen von ihnen selbst als identisch wahrgenommen werden.

Entscheidungsprobleme mit mehreren Handelnden und mehreren Zielen:

Die komplexesten Entscheidungssituationen sind diejenigen, an denen Handelnde mit nicht übereinstimmenden Interessen beteiligt sind. Zur Lösung dieser Probleme kommt das ganze Arsenal der Spieltheorie zum Einsatz, um in kooperativen und nichtkooperativen Spielen optimale Gewinne und eine gerechte Zuteilung  unter allen Handelnden zu erzielen. Einerseits können diese Lösungen im Rahmen kooperativer Spiele durch rationale Überlegungen gewonnen werden, andererseits ergeben sie sich in nichtkooperativen Spielen als wahrscheinlichste Lösungen bei vielfach wiederholten Spielen.

Die Grenze zwischen „blinder“ und „bewusster“ Zielgerichtetheit ist demnach nicht scharf, sondern spiegelt nur verschiedene Sichtweisen wider: ob man Zielgerichtetheit von „außen“ beobachtet oder sie von „innen“ erlebt.

 

6.    Anwendungen

Die Allgemeine Systemtheorie versteht sich weder als deduktiv abgeleitete Sammlung logisch zusammenhängender Lehrsätze noch als eine wissenschaftliche Hypothese, deren Behauptungen an empirisch zu erforschenden Daten zu beweisen wären. Sie ist vielmehr eine Denkweise, in der fachgebietsweise zu erforschende Ergebnisse von vornherein als zusammenhängend betrachtet werden. Die Anwendungen sind daher nicht als praktische Verwirklichung von theoretischen Voraussagen aufzufassen, sondern als beispielhafte Erläuterung des in der Systemtheorie  anzuwendenden Denkschemas. Die Allgemeine Systemtheorie ist somit sowohl Grundlage als auch Ergebnis der allgemeinen Evolutionstheorie. In diesem Sinne analysiert Rapoport folgende Problemkreise:

6.1 Globale Modellbildung

Durch globale Modellbildung wird versucht, bestimmte Aspekte der Zukunft dadurch vorherzusagen, dass komplexe Wechselbeziehungen in Rechnung gestellt werden, die insgesamt den Lauf der Dinge bestimmen.  Die genaueste bekannte Vorhersage ist in der Himmelsmechanik möglich, die durch physikalischen Determinismus bestimmt ist. Aber trotz der exakten Kenntnis der zugrunde liegenden Gesetzmäßigkeiten ist eine exakte analytische Lösung der Planetenbewegungen im Sonnensystem nicht möglich, wenn die gegenseitigen Beeinflussungen der Planetenbahnen berücksichtigt werden sollen. Es muss dann auf numerische Lösungen durch Computersimulationen zurückgegriffen werden, die von Unsicherheiten der gewählten Anfangsbedingungen abhängen.

Weitaus komplexer ist ein Modell zur Vorhersage der künftigen gesellschaftlichen Entwicklung. Hier sind nicht nur die gesetzmäßigen Wechselwirkungen der Parameter nur ungenau bekannt, sondern es können sich infolge nichtlinearer Abhängigkeiten die Parameter auch in unvorhersehbarer Weise verändern. Die auf Computersimulationen beruhende Prognose zukünftiger Entwicklungen ist deshalb mit großer Vorsicht zu bewerten und kann nur zur groben Analyse der Folgen möglicher Interventionen herangezogen werden.

6.2. Die Wirkungsanalyse,

mit der z.B. versucht wird, die Auswirkung der Ansiedlung einer Industrie auf die Einwohnerzahl einer vorhandenen Ortschaft mit einem Flussdiagramm abzuschätzen, enthält zwar gerichtete Abhängigkeiten, aber keine Rückkopplungen und kann deshalb nur kurzfristige Auswirkungen aber nicht die Dynamik der Veränderungen auf längere Sicht beschreiben.

6.3. Dynamische Modelle

sind zur Analyse von demographischen Entwicklungen, der Fischereipolitik und der Ungezieferbekämpfung entwickelt und eingesetzt worden. Hier müssen alle inneren Wechselwirkungen und die Räuber – Beute – Beziehungen berücksichtigt und die Parameter durch empirische Beobachtungen angepasst werden.

6.4. Beschreibung und Verminderung von Komplexität

Die Struktur eines Systems kann durch die Spezifikation der Beziehungen zwischen seinen Bestandteilen beschrieben werden. Die Beziehungen können durch Qualität charakterisiert und durch Angabe einer „Entfernung“ quanitifiziert oder mindestens geordnet werden und bestimmen die Komplexität des Systems, die möglichst einfach zu beschreiben ist. Hierzu ist die Konstruktion eines räumlichen Modells hilfreich. Dazu wurden drei Herangehensweisen entwickelt:

 

6.5. Verallgemeinerung des Entropiesatzes

Rapoport veranschaulicht an einem Stromkreis zum Aufladen eines Kondensator die Einstellung eines Fließgleichgewichts in einem offenen System als Verallgemeinerung des Entropiesatzes. Die von letzteren festgestellte monotone Zunahme der Entropie in einem geschlossenen System bis zur Erreichung eines Gleichgewichtszustandes maximaler Entropie kann auch durch die Forderung einer monotonen Abnahme der Zuwachsrate der Entropie bis zum Erreichen des stationären Gleichgewichtes ersetzt werden. Diese Forderung aber ist auf offene Systeme verallgemeinerbar, wie bereits Prigogine behauptete, und führt dort auf das Theorem, das sich in offenen Systemen ein Fließgleichwicht einstellt, in dem die Rate der Entropieerzeugung minimiert ist. Genau dies tritt auch beim Aufladen eines Kondensators mit Verlustwiderstand ein. Nicht alle von Rapoport angeführten Einzelheiten hierzu sind aber nachvollziehbar.

6.6 Anwendungen des Entropiekonzeptes in der Physiologie

Während normalerweise von selbst verlaufende chemische Prozesse mit der Freisetzung von Wärme verbunden sind (exotherme Reaktionen), gibt es einige physiologische Prozesse, die endotherm verlaufen (Teilung befruchteter Eizellen, Muskelkontraktionen, Polymerisation). Bei diesen Prozessen spielt die Freisetzung von Wassermolekülen eine wesentliche Rolle, was ähnlich wie beim Schmelzen von Eis mit Wärmeverbrauch verbunden ist, aber infolge der Abstoßung der organischen Moleküle vom Wasser auch mit einer Abnahme der Entropie des chemischen Systems. Die Zunahme der Ordnung im Organismus ist hier mit einer Zunahme der Unordnung der Wassermoleküle verbunden und verstößt deshalb nicht gegen den Entropiesatz.

6.7. Anwendungen des informationstheoretischen Entropiebegriffes

Wenn die möglichen Zustände eines Systems durch eine bestimmte stochastische Wahrscheinlichkeitsverteilung charakterisiert werden können, wie z.B. durch eine Gaussverteilung, eine Poissonverteilung oder durch eine Zipfsche Verteilung, so liegt dieser Gleichgewichtsverteilung ein Prozess zu Grunde, in dem die Informationsentropie unter bestimmten Zwangsbedingungen maximiert wird. Die Aufgabe besteht zunächst darin die Zwänge zu finden, denen der jeweilige Prozess unterliegt, um damit die dadurch erzeugte Wahrscheinlichkeitsverteilung zu erklären. Mit Hilfe der Methode der Lagrange-Multiplikatoren kann das Problem gelöst und aus den Zwangsbedingungen die gesuchte Wahrscheinlichkeitsverteilung gewonnen werden. Derartige Anwendungen führen zu neuartigen Erkenntnissen, in denen sich der Erklärungswert der Allgemeinen Systemtheorie am besten offenbart.