Giddens und die Gesellschaft der Heinzelmännchen

Zur Soziologie technischer Agenten und der Multi-Agenten-Systeme

Werner Rammert

Einleitung

Die Agenten sind unter uns! Nur wenige zeigen sich auf dem Bildschirm unserer Computer und bieten offen ihre Dienste an. Viele wirken im Untergrund, verknüpfen verschiedene Programmeinheiten und verteilen sich auch im Netz. Eigentlich sind technische Agenten nichts Neues. Es gab sie schon fast immer in der Computerwelt. Nur wurden sie nicht als Agenten bezeichnet und wahrgenommen. Der Agent ist einfach "die kleinste selbständig arbeitende (Rechen-) Einheit", ein Knoten in einem Netz von Problemlösern (von Martial 1992: 6). Auffällig und enttarnt wurde die Agentengesellschaft, als sich im globalisierten Nachrichtenverkehr die Verständigung zwischen verschiedenen Einheiten und deren Codes zu einem Problem auswuchs. Reflexiv aufgegriffen wurde das Problem der heterogenen und verstreuten Agenten von einer Richtung der Künstliche-Intelligenz-Forschung, die sich als "Verteilte Künstliche Intelligenz" (vgl. Bond/Gasser 1988; Huhns/Gasser 1989; Müller 1993) etabliert hat. Sie wandelte die Kompatibilitätsprobleme in eine positive Herausforderung um, nämlich "intelligente Systeme" von vornherein verteilt und agenten-basiert zu programmieren und "künstliche Gesellschaften" als interaktions-basierte, eher offene "Multi-Agenten-Systeme", zu konstruieren (vgl. u.a. Hewitt 1977; Fox 1981; Lesser/Corkhill 1983).

Die "künstliche Intelligenz", wie wir sie bisher kennen (vgl. die Beiträge in Rammert 1995 und kritisch Malsch 1997), ist im Begriff, sich radikal zu verändern. Die "künstliche Intelligenz" ist mobil, medial und sozial geworden. Sie ist mobil geworden: Denn sie steckt nicht mehr nur in Architektur und Programm des persönlichen Rechners. Sie bewegt sich in verschiedenen weltweiten Netzen, begegnet dort anderen "künstlichen Intelligenzen" und muß sich dazu verhalten. Sie ist medial geworden: Sie wird immer weniger nur als Maschine gebaut und genutzt, um eine automatisierte Leistung abzurufen. Zunehmend wird sie als Medium der Selbstreflexion und der spielerischen wie beruflichen Kommunikation genutzt (vgl. Wagner 1997, Schlese 1995; Florian 1997). Dementsprechend setzt sich immer stärker die Auffassung vom Computer als einem Universalmedium durch (vgl. u.a. Coy 1995; Schelhowe 1997).

Schließlich ist die "künstliche Intelligenz" sozial geworden, und das in zweierlei Hinsicht: Das Interface zwischen Computer und Nutzer löst sich von den Bildern des Maschinebedienens oder Textlesens. Die "Interaktivität" des zwischenmenschlichen Umgangs und die Fiktion eines gemeinsam geteilten Handlungskontextes auf der Bühne (Laurel 1991: 4) zeugen von der Tendenz, den Computer zum "Mitarbeiter" und nützlichen "Mitglied" der Gesellschaft zu sozialisieren (Fields 1987: 20). Neben dieser Sozialisierungstendenz, die den Umgang mit den Produkten betrifft, tritt eine Tendenz der sozialtheoretischen Fundierung, welche ihren Konstruktionsprozeß umwälzt: "Künstliche Intelligenz" wird nicht mehr nach dem Bilde des menschlichen Geistes oder eines individuellen Experten geformt. Die soziale Verteiltheit des Wissens auf teilintelligente und teilautonome Agenten, die Kommunikation zwischen ihnen und deren Organisation ist der Ausgangspunkt der "Verteilten Künstlichen Intelligenz" mit ihrer "Agentensoziologie" (Müller 1993: 11) und den Konstruktionsproblemen "künstlicher Gesellschaften" (Gilbert/Conte 1995). Galt es früher, Intelligenz wie den berühmten Geist in Aladins Märchen aus der Flasche hervorzuzaubern, geht es dieser gegenwärtigen Richtung der Künstliche-Intelligenz-Forschung darum, Intelligenz als Gesellschaft verteilter und kooperierender Geister zu inszenieren.

Von welcher Art diese "soziale Intelligenz" ist, werde ich im ersten Teil anhand der Geschichte von den Heinzelmännchen und einem Beispiel für die kooperative Abstimmung von Flugmanövern unter Bombern kurz veranschaulichen. Die technischen Agenten - so werde ich aufzeigen - sind dienstbar und zum großen Teil unsichtbar, wie viele andere Techniken auch. Sie unterscheiden sich von jenen jedoch durch einen höheren Grad an Intelligenz und Autonomie, was soviel heißt, daß sie komplexere Aufgaben bewältigen und sich dabei in einem bestimmten Rahmen selbst organisieren.

In welchen Hinsichten sich die "Verteilte Künstliche Intelligenz" von der klassischen "Künstlichen Intelligenz" unterscheidet und warum es für die Soziologie sinnvoll und notwendig ist, sich mit ihrer Praxis und ihren Produkten zu befassen, ist das Thema des zweiten Abschnitts.

Welche Optionen, sich mit der VKI zu beschäftigen, der Soziologie offenstehen, wird in Anlehnung an Steve Woolgars povokative Frage "Why not a sociology of machines?" im dritten Abschnitt diskutiert. Ich werde dort sowohl für die Möglichkeit einer kritisch-konstruktiven Kooperation im Sinne einer "reflexiven Technikentwicklung" argumentieren als auch auf die Gelegenheit hinweisen, welche das Studium der "künstlichen Gesellschaften" der Agenten für das Schärfen soziologischer Begrifflichkeiten und das Überdenken sozialtheoretischer Grundlagenprobleme bietet.

Inwieweit sich Konstruktionsprobleme von Multi-Agenten-Systemen und Konstitutionsprobleme menschlicher Gesellschaften ähneln und voneinander unterscheiden, wird im vierten Abschnitt untersucht. Dabei werden die anspruchsvolleren Konzepte einer "harten" VKI , nämlich derjenigen, die von der Notwendigkeit einer sozialtheoretischen Fundierung ihrer Disziplin ausgehen, also "Sozialkategorien" nicht nur als Metaphern behandeln (vgl. dazu Malsch 1997), mit Anthony Giddens' Strukturierungstheorie und pragmatistischen Konzepten von "Agency" in Beziehung gesetzt. Diese Überlegungen sind von der These geleitet, daß sich diese, die Subjekt-Objekt-Differenz nicht apriori setzenden Sozialtheorien besonders gut für die Analyse und Gestaltung der Zusammenhänge von Agentenverhalten und emergenter Sozialstruktur eignen. Darüber hinaus scheinen sie mir auch eine vielversprechende Perspektive zu eröffnen, den Umgang mit technischen und anderen Dingen wieder in die soziologische Analyse hereinzuholen.

Abschließend werde ich versuchen, einige Lehren aus der Beschäftigung mit Agentengesellschaften für die soziologische Theorie zu ziehen. Warum sollte die Soziologie die Tiergesellschaften nur den Biologen, die Maschinerien nur den Ingenieuren und die Multi-Agenten-Systeme nur den Informatikern überlassen? Wer aus Gründen der disziplinären Identität immer nur Erbsen auf die Treppe, die über die Grenzen des Faches hinausführt, streut, der wird andere Gesellschaften vertreiben und bringt sich um die Möglichkeit, aus der Begegnung mit ihnen zu lernen.

1. In Gesellschaft guter Geister?

Heinzelmännchen sind kleine Wesen, die fleißig und heimlich menschliche Arbeit verrichten. Das Märchen berichtet uns von einem Vorfall in Köln, wo sie des nachts Zutaten mischten, Teig kneteten, allerlei buken und die Backstube feinstsäuberlich fegten. Sie verrichteten unermüdlich und selbständig die verschiedenen Tätigkeiten des Bäckers in dessen Sinne, während dieser in seiner Kammer schlief. Nie wurden sie bei ihrer stillen Arbeit beobachtet; denn als die neugierige Bäckersfrau Erbsen auf die Treppe streute und die hilfsbereiten Geister darüber aus dem Tritt kamen, ward die fleißige Schattengesellschaft der Heinzelmännchen nimmermehr gesehen, und der Bäcker mußte fortan seine Arbeit wieder selber verrichten.

Solche dienstbaren Geister, die uns helfen und meist im Hintergrund für uns tätig sind, bevölkern zunehmend unsere Rechner. In der Welt der Informatik und Künstlichen Intelligenz hat sich für sie die Bezeichnung "Agenten" eingebürgert. Zuhause begegnen wir ihnen auf der Oberfläche des Bildschirms als Set up- oder Tip-Assistenten, die im Hintergrund eine kleine Schar anderer Programmteile dirigieren. Unterwegs für uns im Internet treten sie als Kommunikationsagenten in Kontakt mit anderen Agenten und durchsuchen, während wir ruhen, Diskussionsforen und Datenbanken unermüdlich nach Stichworten. Sie handeln gezielt in unserem Auftrag, agieren jedoch in einem eingeschränkten Sinn selbständig. Wie die Heinzelmännchen gehen sie verschwiegen und weitgehend unsichtbar ihrer Arbeit nach. Das Werk wird wie von Zauberhand vollbracht, ohne daß spezifizierte einzelne Aufträge an jeden von ihnen vergeben werden müßten. Diese Leistung erbringt die unsichtbare Schar der dienstbaren Geister kollektiv, gleichsam als Gesellschaft der Heinzelmännchen, indem sie die Aufgaben selbständig unter sich aufteilt, Zwischenergebnisse unter sich aushandelt und zu einem Endergebnis koordiniert zusammenfaßt.

Solche Multi-Agenten-Systeme, wie sie von Vertretern der Verteilten Künstlichen Intelligenz genannt werden, verhalten sich wie eine soziale Einheit oder Gruppe (Werner 1989: 3) und vermögen daher vielerlei komplexe und dynamische Aufgaben zu erledigen. Das kann zum Beispiel die Aufgabe der verteilten Interpretation von Daten aus Überwachungsgeräten auf einer Intensivstation sein, wobei Wahrnehmungsagenten, Handlungsagenten und schlußfolgernde Vermittlungsagenten mit einem Kontrollagenten in ein lose gekoppeltes hierarchisches System eingebunden sind (Hayes-Roth u.a. 1989; zu Problemen mit einfachen Expertensystemen vgl. Wagner 1997). Das können komplizierte Abstimmungen von Terminen zwischen mehreren Teilnehmern für eine Sitzung sein; das kann die situationsabgestimmte verteilte Steuerung und Planung zwischen verschiedenen selbständigen Produktionseinheiten oder zwischen verschiedenen Expertensystemen sein; oder es kann sich um die riskante Koordination von Flugmanövern zwischen drei sich im selben Luftraum begegnenden Bombern handeln (Steeb u.a. 1981).

Schauen wir uns den letzten Fall ein wenig näher an! Die Berechnung der richtigen Ausweichmanöver, wenn sich drei Bomber im Luftraum begegnen, überfordert aus verschiedenen Gründen einen einzelnen Rechner, sei er an Bord des jeweiligen Flugzeugs oder auf einer Bodenstation installiert. Die Bewegungen der beiden anderen Flugzeuge erzeugen eine hohe Umweltunsicherheit. Die Veränderungen der Bedinungen in der Zeit sorgen für eine hohe Umweltdynamik. Die Kommunikationsmöglichkeiten können gestört sein. Der Zeitdruck für Entscheidungen nimmt zu. Die Optionen für jede Recheneinheit vervielfältigen sich. Die situationale Komplexität, auch die durch die Rechner selbst erzeugte, nimmt zu, so daß eine Schiedsrichterfunktion nötig wird (ebda. : 99). Es wäre unter diesen zeitlich restriktiven und situativ komplexen Bedingungen zu langwierig und riskant, jeden Rechner an Bord für sich allein das günstigste Ausweichmanöver bestimmen zu lassen und das weitere Vorgehen über die Kommunikation der Piloten miteinander zu koordinieren. Auch ein Rechner auf der Bodenstation wäre zu sehr auf die Bereinigung der Widersprüche zwischen den globalen Planungsdaten für die Flugrouten der drei Bomber und ihrem aktuellen lokalen Verhalten beschäftigt. Im dargestellten Modell einer objekt-zentrierten Kooperation zwischen den Agenten verteilter Intelligenz tauschen die Rechner untereinander ihre Berechnungen und Schlußfolgerungen aus und kommen ohne Hierarchie zu einem koordinierten Ergebnis (vgl. Steeb u.a. 1981: 3, Fig. 5) .

Die Gesellschaft der Heinzelmännchen kann scheinbar mehr leisten als ein einzelner großer Geist in der Flasche! Das Werk entsteht nicht als schlichte Aggregation der einzelnen Handlungen. Das Ergebnis wird nicht durch sequentielles Abarbeiten eines rationalen Plans produziert. Sondern es wächst als emergentes Produkt aus der Kooperation vielfältigen und verteilten Handelns. Diese Emergenz macht den "Zauber" der neuen Technik aus. Wer nun vorschnell Erbsen auf die Treppe streut, um dem "faulen Zauber" ein Ende zu bereiten, bringt sich um die Möglichkeit, das Besondere dieser technischen Agenten wahrzunehmen. Sicherlich teilt diese Technik auch die Eigenschaften der "Dienstbarkeit" und der hintergründigen Entlastung, indem Routinefunktionen, wie Wahrnehmen, Diagnostizieren oder Schlußfolgern, technisiert, d.h. in Algorithmen übersetzt, auf Programme übertragen und an Maschinen zum Vollzug delegiert werden. Allerdings wird in diesem Fall die Technisierung wieder einen Schritt zurückgenommen, indem man den einzelnen Instanzen mehr Freiheitsgrade gewährt und sie nicht streng, sondern eher lose miteinander koppelt. Im Unterschied zu Maschinenteilen oder sonstigen technischen Teilsystemen verfügen sie wegen der Verteiltheit und loseren Verkopplung über einen höheren Grad an situierter Intelligenz und an relativer Autonomie. Daher rechtfertigt sich auch ihre Bezeichnung als Agenten und der Vergleich ihrer Verkopplung untereinander mit kommunikativen und organisierten Sozialbeziehungen.

2. Die Konstruktion von Agentengesellschaften: Kontinuität und Innovation in der KI

In der Ingenieursprache der Künstlichen Intelligenz kommt diese neue Sicht- und Konstruktionsweise von Programmen und Systemen unter verschiedenen Etiketten daher: Sie wird "Verteilte Künstliche Intelligenz" genannt, wenn gegen das Konzept der zentralisierten künstlichen Intelligenz, vom universellen Problemlöser bis zum speziellen Expertensystem, und gegen das Paradigma der strukturierten Programmierung argumentiert wird. Man spricht von "Multi-Agenten-Systemen", wenn gegenüber parallelen und neuronalen Prozessen der kognitive Charakter und gegenüber hierarchisch verzahnten Unterprogrammen die lockere Koppelung von Teilprogrammen zu einem Verbund betont wird. Verteilte Problemlösungssysteme werden zu einem speziellen Zweck von oben nach unten entwickelt, indem die Aufgaben geteilt und auf mehrere Problemlöser verteilt werden, die wiederum in einem lose geflochtenen Netzwerk verknüpft werden (vgl. z.B. Durfee/Lesser/Corkhill 1989). Entwickler von Multi-Agenten-Systeme gehen von vorhandenen autonomen Agenten und auch von ihrer Heterogenität aus; es gilt sie gleichsam von unten nach oben kooperations- und kommunikationsfähig zu machen (von Martial 1992: 8).

Genau genommen handelt es sich bei der "Verteilten Künstlichen Intelligenz" zum einen um einen neuen Stil des Programmierens und zum anderen um einen neuen Typ von Programmen. Neu in der Geschichte des Programmierens erscheint hier "die Betonung des Aktiven, der Autonomie und der organisierten Verteiltheit" der Einheiten, die in einem Programmsystem zusammengefaßt sind (Pflüger 1997: 2). Leitende Idee ist nicht mehr das Schreiben der Einheiten hintereinander zu einer Kette, nicht mehr das Konstruieren eines architektonisch integrierten Gebildes, sondern das Züchten und Wachsenlassen der Interaktionen der verschiedenen Einheiten untereinander zu emergenten Strukturen und evolutionären Lernprozessen (vgl. Pflüger 1994). Nicht eine einzelne problemlösende Person oder einen einzelnen Experten sollte der Programmierer vor Augen haben, sondern eine Gesellschaft von Experten, die verteilt produziert und untereinander Ergebnisse kommuniziert . Das Modell für eine solche "society of experts" hat Carl Hewitt mit seinem Akteur-Konzept (Hewitt 1977: 326), dem Vorgänger des Agenten-Konzepts, geliefert. Vorbild war das verteilte und gutwillig kooperative Problemlösungsverhalten der Wissenschaftlergemeinschaft (vgl. Kornfeld/Hewitt 1981). Der agenten-orientierte Programmierstil unterscheidet sich von dem strukturierten oder objekt-orientierten Stil dadurch, daß er Rechner- wie Programmeinheiten in einer anderen Haltung entwirft, nämlich sie als relativ selbständige Agenten analysiert und kontrolliert (vgl. Shoham 1993). Damit ist in der Geschichte des Programmierens ein Zustand erreicht, der demjenigen in der Geschichte menschlichen Verhaltens gleicht, seitdem Gemeinschaften Mitglieder unterschieden und ihnen individuelle Handlungsfähigkeit zurechneten, sich Probleme der Spannung von Individuum und Gesellschaft, von Gemeinschaft und Gesellschaft zeigten. Ich werde später auf das Problem der Zurechnung von Agentenschaft und die Ermergenz von Sozialstrukturen ausführlicher eingehen (vgl. Abschnitt 4.3).

Zum anderen handelt es sich bei der "Verteilten Künstlichen Intelligenz" um einen Typ von Programmen, die mehr "Agent" als "Werkzeug" sind. Sie erledigen relativ "autonom" Dienste: An die Stelle der direkten Manipulation tritt die Delegation von Aufgaben zur selbständigen Erfüllung. Es wird zum Beispiel nicht durch Aufrufen eines Befehls sämtliche elektronische Post auf den Bildschirm geholt, sondern ein "Kommunikations-Agent" hat sie schon selbständig nach Dringlichkeit und Themen vorsortiert. Die Agenten stellen sich dazu "persönlich" auf den Nutzer ein: Statt einer rein instrumentellen Aufgabenorientierung entstehen interaktive Beziehungen zwischen dem Nutzer und seinem "Assistenten-Programm". Der Nutzer muß zum Beispiel sein Interessenprofil dem Programm vermitteln, das der Agent dann nach außen hin vertritt, und sich über die Ergebnisse der stellvertretenden Informationsfilterung ein Bild von seinen Interessen machen und es eventuell korrigieren. Die Dienste werden im Kommunikationsnetz "diskursiv" ausgehandelt: Die Daten werden nicht einfach von anderen Programmeinheiten abgerufen, sondern nach wechselseitiger Identifizierung der Wünsche und der Wissensbestände ausgetauscht. Das kann zum Beispiel nach einer hierarchisch festgelegten Kooperationstruktur (siehe das obige Beispiel mit den Bombern) oder in einem eher offenen System nach dem Vertragsmodell geschehen. Bei den "technischen Agenten" oder "Multi-Agenten-Systemen" handelt es sich also um Programme, die relativ selbständig eine Aktion in Gang setzen, die einen gemeinsam geteilten Handlungskontext für Nutzer und Programme anbieten, so daß die Vorstellung einer interaktiven und persönlichen Beziehung zu einem Assistenten aufkommen kann, und die auch untereinander in kommunikative Beziehungen treten können (vgl. Laurel 1991: 4; Turkle 1995: 19-22; Pflüger 1997: 11).

Auf der metaphorischen Ebene haben wir es sicherlich mit einer radikalen Innovation zu tun: Die traditionellen Geistmetaphern werden zugunsten von Gesellschaftsmetaphern abgelöst. Statt individuellem Denken, Problemlösen oder Schlußfolgern stehen Verteilung von Rollen, Kooperation und Aushandlung in Kollektiven im Vordergrund. Noch stärker als bei den heuristischen Strategien von Expertensystemen bleiben die genauen Abläufe im Verborgenen - kommen gleichsam "hinter dem Rücken" des Nutzers und "unter der Oberfläche" von seiner Sicht abgeschirmt zustande. Ob sich auf der praktischen Ebene des Computerumgangs ebensoviel ändert, bleibt abzuwarten und wäre genauer zu untersuchen. Im großen und ganzen scheinen die Elemente der VKI-Systeme, wie Rechner, Programme und Vernetzungen, mit denjenigen ihrer Vorgänger ähnlich zu bleiben. Was sich radikal ändert, sind die Leitvorstellung ihrer funktionalen Organisation und ihre Architektur: von einem denkenden Kopf zu vielen miteinander kooperierenden Köpfen, vom passiven wissens-basierten System zu aktiven wissensuchenden Agentenverbänden.

Die Zukunft der VKI hängt unter anderem davon ab, ob sich Soziologen, Anthropologen und Organisationsforscher ebenso wie vorher ein Teil der Psychologen, Linguisten und Bewußtseinsphilosophen in kritisch-konstruktive Kooperation mit dieser neuen Strömung der KI-Forschung begeben. Daß es sich wahrscheinlich wieder nur um einen neuen Modezyklus in der sanduhrförmigen Verlaufsdynamik der KI-Entwicklung handelt (vgl. Breiter 1996), dürfte als Argument für die Enthaltsamkeit der Soziologie nicht ziehen. Erstens, scheint mir ein solcher Verlauf auch für andere dynamische Disziplinen der Wisssenschaft typisch und speziell für ihre Fruchtbarkeit kennzeichnend zu sein. Denn erst im retrospektiven Blick kann man aus der Komplementarität heterogener Forschungslinien eine weiterführende Integration und eine umwälzende Innovation erkennen (vgl. für die Antibiotika Wolf 1994). Zweitens, hätten wir Soziologen die Chance, jetzt , wo es um Modelle der Sozialität und um ein Metaphernfeld geht, auf dem wir über beste Kompetenzen verfügen, diese zu überprüfen, zu vermitteln und eventuell zu verbessern. Drittens, haben wir auch die moralische Pflicht, nachdem wir nicht müde geworden sind, den individualistischen, statischen und dekontextualisierten Intelligenz- und Wissensbegriff der klassischen KI zu kritisieren (Collins 1990; Wolfe 1991; Becker/Paetau 1992; Malsch u.a. 1993; Wehner 1994), uns zumindest mit dem neuen Konzept verteilter intelligenter Agenturen auseinanderzusetzen, das unsere Kritikpunkte nicht nur teilt, sondern bewußt sozialtheoretische Konzepte aufgreift und sie zu modellieren sucht.

3. Warum nicht eine Soziologie der Heinzelmännchen?

Als Steve Woolgar vor über 12 Jahren die Frage "Why not a Sociology of Machines?" mit Blick auf die Künstliche Intelligenz stellte, plädierte er für eine Ausweitung der eingeschränkten soziologischen Perspektive. Die Soziologie sollte sich nicht nur auf Probleme der sozialen Verantwortbarkeit und der sozialen Folgen der KI-Projekte beschränken, sondern sich auch der Genese dieser Konzepte und Konstrukte und der fundamentalen Grenzziehung zwischen Mensch und Maschine als Thema zuwenden. Sie sollte sich nicht nur mit dem "Impact" von Computer und künstlicher Intelligenz, wie alters-, geschlechts- und milieuspezifischen Haltungen dazu (z.B. Turkle 1984), öffentliche Wahrnehmung und Akzeptanz maschineller Intelligenz und Folgen der Implementation in unterschiedlichen institutionellen Kontexten, befassen, sondern sie sollte sich auch mit dem Prozeß der Forschungs- und - wie ich hinzufügen möchte - Entwicklungsaktivitäten beschäftigen (Woolgar 1985: 558, 559). Aus seinen Überlegungen lassen sich zwei deutlich unterscheidbare Optionen ableiten, wie sich die Soziologie zur Verteilten Künstlichen Intelligenz ins Verhältnis setzen kann. Die Soziologie kann auf die VKI zugehen und sich, soweit sie den Gegenstandsbereich mit ihr teilt, in konstruktive Kooperation bei der Entwicklung oder in produktive Konkurrenz bei der Erklärung treten. Die Soziologie kann auch, wie sie das mit anderen Gegenstandsbereichen macht, die Praktiken seiner gesellschaftlichen Produktion und die Strukturierung seiner institutionellen Reproduktion untersuchen.

3.1 Von der Möglichkeit einer kritisch-konstruktiven Liason

Bezog sich die traditionelle Künstliche Intelligenz auf den Erwerb und die Nutzung von Expertenwissen, die Modellierung von natürlichsprachlichen Dialogen und die Definition von Kompetenzen, so rücken bei der Verteilten Künstlichen Intelligenz die Akteurseigenschaft, Kooperation, Konflikt und Verhandlung unter Agenten, das Verhältnis von lokalen Aktionen und globalen Wirkungen, das Phänomen der sozialen Emergenz selbst in den Fokus der Aufmerksamkeit. Noch stärker als vorher beim Wissensbegriff wird jetzt die Soziologie mit ihrer fundierenden Auffassung von Gesellschaft und Sozialität als Realität sui generis herausgefordert.

Die Soziologie könnte mit ihrer üblichen "asymmetrischen" Herangehensweise, die Agentenschaft einseitig nur den Menschen und nicht anderen Dingen zuzurechnen (vgl. Bloor 1991; Latour/Woolgar 1986), eine Soziologie der Heinzelmännchen oder der technischen Agenten in Grund und Boden kritisieren: Weder Geister noch Maschinen könnten sozial handeln, sinnhaft kommunizieren oder Gesellschaft konstruieren. Ohne menschliche Agenten laufe eben nichts. Aber man hätte nur bekräftigt, was man als Prämisse schon unterstellte, den soziozentrischen Blick auf das Fremde. Er ist zwar identitätsstiftend und legitim, aber er verschließt sich dem Kennenlernen des Anderen und damit auch der Möglichkeit der kritischen Selbstreflexion. Schließlich sind auch die Annahmen, daß Menschen oder daß Handlungen oder daß Kommunikationen Gesellschaft ausmachen, und daß Körper oder physikalische Dinge oder Natur ausgeschlossen werden, kritisierbare Setzungen soziologischer Ansätze.

Mit einer methodologischen Symmetrisierung im Sinne von David Bloor müßte man nicht darauf verzichten, Unterschiede zwischen menschlichen und nicht-menschlichen Agenten festzustellen; man würde sie jedoch nur aus beobachteten Differenzen in der Praxis als konstruierte beschreiben müssen, die sich auch mit Praktiken ändern können. Dann würde der Blick nicht nur auf den Transfer von Sozialmetaphern in die Informationstechnik fallen (vgl. zur Metaphernmigration Malsch/Florian/Jonas/Schulz-Schaeffer 1996; Malsch 1997). Auch der entgegengesetzte Transfer von Technikmetaphern auf gesellschaftliche Prozesse könnte diese erhellen. Die Rede von den "Mechanismen", der "Konstruktion" und der "Rekursivität" sozialer Prozesse zeugt von der teilweisen Artifizialität der Sozialsysteme.

Neben die Differenz von menschlichen und nicht-menschlichen Agenten könnte noch eine zusätzliche Differenz zwischen den Agenten und den Vergesellschaftungsformen aufgemacht werden. Die Medien, in denen sich Technisierungs- und Enttechnisierungsprozesse formen und kreuzen, schaffen Unterschiede (vgl. Rammert 1997a). Ob Formen der Technisierung in organische Körper, in physikalische Sachen oder in symbolische Zeichen eingeschrieben werden, schafft Unterschiede mit deutlichen Konsequenzen. Im Medium beweglicher organischer Körper sind der raum-zeitlich ausgreifenden Gesellschaftsbildung (siehe zu diesem Gesellschaftsbegriff Giddens 1995), z. B. in Menschenaffensozietäten oder in zeichen- und werkzeuglosen Humangesellschaften, starke Grenzen gesetzt (vgl. Latour 1994). Erst durch die Erweiterung des Sozialen im Medium der Zeichen und im Medium der physikalischen Sachen gewinnen soziale Prozesse eine zeitliche Kontinuität und eine räumliche Stabilität, so daß wir überhaupt von Sozialstrukturen und Gesellschaften im modernen Sinne sprechen können.

Ein weiterer Unterschied zur Position von Steve Woolgar und auch von Bruno Latour beträfe das Prinzip, die Symmetrisierung nicht mehr auf die sprachlichen Diskurse oder die semiotische Ebene einzuschränken. Der Gegenstand der Soziologie, insbesondere der Techniksoziologie, war und ist in meinen Augen weder das technische Ding, noch nur die Rede darüber oder die Technik als Text, sondern immer der "praktische Umgang mit der Technik". Dazu gehören die Praktiken des Konstruierens in ständiger Auseinandersetzung mit den Möglichkeiten der Entwürfe und den Widerständigkeiten der Materialien. Dazu sind auch die Praktiken der Aneignung und Nutzung zu zählen, die aus einem vorgegebenen Artefakt erst durch ihre kreative Redefinition und die alltäglich fraglose Verwendung eine in ihrem Sinne funktionierende Technik machen. Das Projekt der Technisierung wird in diesem pragmatistischen Verständnis als gleichzeitig offene und limitierende Praxis angesehen. Bei der Technikerzeugung hat jetzt David Pickering für diese Dialektik von Widerständigkeit und Anpassung das Bild des "Mangelns" durch die Praxis erfunden (Pickering 1995). Für die Technikverwendung könnte man eine entsprechende Dialektik von Medialität und kultivierender Formung am Werke sehen.

Worin könnte der Beitrag einer Soziologie der Gesellschaft der Heinzelmännchen bestehen?

a) Sie könnte über die Sozialmetaphern hinaus den Systembauern nützliche soziologische Konzepte für die Phänomene der Kooperation, der Aushandlung, der Organisation und der Emergenz anbieten. Dazu bedürfte es keiner allzu engen Kooperation zwischen Soziologie und VKI, nur einer lockeren Verkoppelung, um das wechselseitige Interesse an den Problemen und Phänomenen zu wecken; denn der Transfer erfolgt wie bei der integrierten Technikfolgenabschätzung von Expertensystemen als doppelt reflexiver Übersetzungsprozeß (vgl. Rammert 1993): Die Soziologen bieten zu den von ihnen vermuteten technischen Problemen geeignete Konzepte an, und die Systembauer werten die angebotenen soziologischen Konzepte nach ihren technischen Vorstellungen aus.

b) Sie könnte nach dem Vorbild der heterogenen Problemverarbeitung in Agentenverbünden (vgl. Kirn/Klöfer 1995) selbst eine solche engere Verbundkooperation mit der VKI im Hinblick auf ein Problem eingehen, das beide Disziplinen teilen: nämlich das Problem der Kooperation von menschlichen und nicht-menschlichen Agenten in Hybridsystemen. Gegenüber der Analogie zwischen Interaktionsweisen (vgl. Geser 1989) in menschlichen Sozialsystemen und in technischen Agentenverbünden stünde in diesem Fall die strukturelle Kopplung und Übersetzung zwischen den unterschiedlichen Systemen zur Diskussion. Über die übliche Schnittstellenproblematik hinaus ginge es auch um die experimentelle Grenzziehung zwischen beiden Feldern. Beide Kompetenzen, die der Softwareentwickler und die der Sozialforscher, sind berührt, wenn es um die Technik und die Sozialform der Mensch-Maschine-Interaktion und um die Emergenz soziotechnischer Ensembles geht.

Es gibt natürlich auch umgekehrt Inputs der VKI für die Soziologie. Sie kann einmal Instrumente bieten, um soziologische Konzepte präziser zu formulieren. Sie kann zum anderen Programme anbieten, die spezielle Sozialprozesse simulieren und dadurch zu neuen Erklärungen komplexer Verhältnisse anregen können (vgl. Gilbert/Doran 1994 und Ahrweiler in diesem Band). Selbstverständlich sagt das technische Funktionieren eines Multi-Agenten-Programms ebensowenig über die wirklichen gesellschaftlichen Prozesse aus wie die erfolgreiche Implementation von KI-Programmen über die Vorgänge menschlichen Denkens. Es handelt sich dabei nicht um empirische Überprüfungen, sondern eher um kontrollierte Gedankenexperimente.

3.2 Die Möglichkeit einer Soziologie der Praxis, der Produkte und des technologischen Feldes der Verteilten Künstlichen Intelligenz

a) Eine Soziologie der VKI-Community wäre in zwei Hinsichten interessant: Inwieweit läßt sich an der heterogenen Community zeigen, daß wissenschaftliche und technische Innovationen durch Mittler an den Rändern etablierter Fächer und durch Mischung verschiedener Forschungspraktiken und Denkkulturen entstehen? Wie schon die neuzeitliche Naturwissenschaft als experimentelle Philosophie aus der kulturellen Mischung von humanistischen Universitätsgelehrten und praktischen Ingenieuren entstanden ist (vgl. Zilsel 1976), die experimentelle Psychologie aus dem Transfer physiologischer Methoden in die Bewußtseinphilosophie (vgl Ben-David/Collins 1974) und die Kybernetik aus der Mischung der Praktiken von Mathematikern und Telekommunikationsingenieuren (vgl. Heims 1980), so könnte die enge interaktive Verbindung von kritischen Vertretern der Künstlichen Intelligenz und einer jüngeren Generation von Anhängern des Symbolischen Interaktionismus das Aufkommen der sozialorientierten Verteilten Künstlichen Intelligenz erklären (vgl. Strübing in diesem Band). Zusätzlich wäre zu fragen, welche weiteren Prozesse der Vernetzung der VKI-Community mit politischen Förderagenten und mit industriellen Anwenderagenten sich gegenwärtig beobachten lassen, wer sich mit welchen Gründen in diese Forschungsfeld einbinden läßt und wer skeptisch distanziert bleibt und wer offensiv attackiert? (vgl. zur Analyse des KI-Feldes (Ahrweiler 1995).

Allerdings blieben bei dieser wissenschaftssoziologisch orientierten Betrachtung der Entstehung eines neuen Denkstils, einer Wissenschaftlergemeinschaft und der Institutionalisierung eines Forschungsfeldes die Produkte, nämlich die technischen Agenten und die Multi-Agenten-Systeme, weitgehend ausgeklammert:

b) Eine Techniksoziologie der Multi-Agenten-Systeme wäre in diesem Falle aufschlußreich. Sie könnte fragen: Welche Sozialmetaphern haben sich bei der Gestaltung durchgesetzt? Agentenverbünde können nach dem Leitbild der Bürokratie oder des Marktes, einzelne Agenten nach dem Vorbild vertrauenswürdiger Partner (vgl. Bachmann in diesem Band) oder verdeckter Doppelagenten geschaffen werden. Welche soziologischen Konzepte standen bei den verschiedenen Systemen Pate? Die Systeme können mit Blick auf die Theorie rationaler Wahlen (vgl. Vollst in diesem Band) oder auf Typen reflexiver Soziologien (vgl. Florian und Bachmann in diesem Band) entworfen sein. Aber Begründungsrhetorik und Konstruktionswirklichkeit können weit auseinanderklaffen. Zum Beispiel können unterschiedliche Systeme von ein und derselben Metapher angeregt sein, wie sich auch ein und dasselbe System verschiedenen Metaphern verdanken kann. Thema dieser techniksoziologischen Perspektive ist die strukturierende Wirkung von Sozialmetaphern für die Entwicklungspraxis und das fertige Produkt (vgl. Malsch 1997).

Allerdings stoßen wir hier auf Grenzen einer Artefakthermeneutik: Eine authentische und definitive Antwort auf die intentionale Struktur der Agenten und Agentensysteme bekommen wir weder von der Maschine, noch von einem technisch erläuternden Text, weder von dem Entwickler, noch von dem Anwender (vgl. Dennett 1990). Die Sinngebung wird jeweils in den Praktiken der Verwendung ausgehandelt, wobei die spezifischen Medien, die in sie eingeprägten Formen der Technisierung und die Situationsdefinitionen der Nutzer eine Rolle spielen. Ein Wissensingenieur, der sich bewußt vom traditionellen Leitbild der "Wissensautomation" in der KI absetzen wollte, hat zum Beispiel unter dem Leitbild "Kommunikationsmedium" ein Expertensystem zur Unterstützung der Verkaufsberatung konstruiert, das dann in der Anwendungssituation von der Verkäuferin als praktisches und sauberes Druckgerät für das detaillierte Verkaufsangebot genutzt wurde (vgl. Schlese 1995). Vor der funktionalistischen Deutung der Ingenieure, vor der intentionalistischen Annahme der Leitbildsteuerung wie auch vor der vorschnellen Vermutung der wirksamen Metaphernmigration haben wir uns aus dieser pragmatistischen und performanzorientierten Sicht zu hüten. Stattdessen müssen wir also die Praktiken der Erzeugung, des Wirkens und der Verwendung empirisch genau beobachten und vergleichen, wenn wir etwas über Differenzen und Koppelungen erfahren wollen.

c) Als letzte Perspektive, welche die technischen Produkte und ihre soziale Produktion integriert, bleibt eine Soziologie der Assoziation von menschlichen und nicht-menschlichen Agenten und der daraus emergierenden Techno- und Sozialstruktur. Sie zählt soziale wie technische Agenten und deren Beziehungen zu ihrem Gegenstandsbereich. Dabei vermag sie zwischen "reinen" Sozialbeziehungen der Freundschaft und der traditionellen Gemeinschaft und den "hybriden" objekt-zentrierten Sozialbeziehungen von Forschergruppen und professionellen Expertenkulturen (vgl. Knorr-Cetina 1997) zu unterscheiden. Sie beobachtet beider Praktiken der Operation, der Zurechnung und der Identitätsbildung. Sie fragt in konkreten Kontexten nach den jeweiligen Anteilen an Handlungswirkungen. Dazu müssen sowohl die menschlichen Agenten wie auch die technischen Agenten daraufhin untersucht werden, wieviel "Agentenschaft" ihnen jeweils zugerechnet werden kann, wieviele "constraints" diese einschränken (vgl. Fuller 1994 und Abschnitt 4.3).

Anhand nur einer ausgewählten Frage möchte ich im nächsten Teil illustrieren, was es heißen kann, die Gesellschaft der Heinzelmännchen und der Menschen gemeinsam zu untersuchen. Es handelt sich dabei um die gleichermaßen die Soziologie wie die VKI fundierende Frage nach dem Zusammenhang von Handlungen und emergenten Sozialstrukturen.

4. Konstruktion und Konstitution von Gesellschaften

Drei Debatten in der Soziologie sind für unser Thema von besonderer Bedeutung: erstens, die Debatte um die Dialektik von Handeln und Struktur, wie "Agency" zu konzipieren ist, wo soziale Strukturen zu verorten sind und was unter Emergenz zu verstehen ist; zweitens, die Mikro-Makro-Debatte, wie lokale und flüchtige Ereignisse zu globalen und dauerhafteren Phänomenen werden und diese wiederum auf Situationen zurückwirken; und drittens, die Debatte um den Stoff, aus dem Gesellschaft gemacht ist, welche Rolle menschliche Subjekthaftigkeit, zwischenmenschliche Kommunikation und nicht-menschliche Objekte für die Konstitution von Gesellschaften spielen. Die soziologischen Debatten werden unter der Perspektive der Strukturierungstheorie von Anthony Giddens und pragmatistischer Konzepte von "Agency" kurz dargestellt, um die Konstitutionsprobleme von Gesellschaften dann im Hinblick auf die Konstruktionsprobleme von Multi-Agenten-Systemen zu vergleichen. Hier wurden die Konzepte einer eher "harten" VKI-Position ausgewählt, welche sich von der sozialtheoretischen Fundierung technische Fortschritte verspricht. Außerdem lag es nahe, sich auf solche Ansätze zu beziehen, die sich in ihrem Bemühen um Fundierung explizit auf die Sozialtheorie von Anthony Giddens berufen.

4.1 "Agency" und Sozialstruktur in Soziologie und VKI

Bei Emile Durkheim beginnt die Soziologie - übrigens gar nicht so weit entfernt von einer "Physik" des Sozialen - mit der Emergenz sozialer Tatsachen. Die sozialen Tatsachen sind zwar durch das Handeln der Menschen geschaffen, wirken jedoch als eigene soziale Wirklichkeit. Sie bestehen aus Rollenstrukturen, normativen Ordnungen und anderen sozialen Institutionen, die von den Individuen als äußerer Zwang, als eine neben der physikalischen Wirklichkeit existierenden Realität sui generis, erfahren werden. Das Handeln der Einzelnen übernimmt in dieser strukturalistischen Lesart die Funktion des Auslösens, des "Triggerns" von Strukturen, aber keine kreative oder entscheidende Rolle. Die Handelnden treten bei einer solchen Auffassung vom "übersozialisierten Menschen" (Wrong 1961) gegenüber den externen Rollenerwartungen und normativen Ordnungen in den Hintergrund und folgen wie eine Marionette den vorgebahnten Mustern und Bahnen.

Nach einem ähnlichen Muster konzipiert kann man sich die "reaktiven Agenten" der VKI vorstellen. Sie sind verhaltensbasiert und reagieren nach festen Regeln auf Umgebungseinflüsse. Sie haben kein explizites Wissen über sich und die Umwelt. Sie können nicht frei entscheiden. Trotzdem entstehen aus ihren einfachen reflexartigen Verhaltensweisen emergente komplexe Strukturen. Das zeigen Insektengesellschaften und auch nach diesem Muster gebaute Tierautomaten und Robotergruppen.

Gegenüber diesem methodologischen Holismus präsentiert sich der Individualismus der Theorien rationaler Wahlen sichtlich handlungsfreundlich. Alle Sozialstrukturen seien letztlich auf die Interessen und Aktivitäten der individuellen Mitglieder einer Gesellschaft zurückführbar. Kooperationsstrukturen könnten zum Beispiel aus den Gewinnvorteilen eines begrenzten Egoismus rational Handelnder - zumindest bei wiederholten Spielen - erklärt werden (vgl. Axelrod 1995). Bis auf wenige dilemmatische Spielstrukturen scheint bei dieser Auffassung vom "untersozialisierten Menschen" die Vorstellung von Struktur stark ausgedünnt zu sein.

Nach diesem Muster sind die "reflektiven Agenten" konzipiert, welche planbasiert, rational, intentional und "deliberative" handeln (vgl. u.a. Sundermeyer 1993: 26). Sie verfügen über explizites Wissen und kommunizieren miteinander. Das Wissen besteht aus Informationen über den Prozeß, Informationen über den Zustand, in dem sie sich befinden, und Informationen über Bewertungen (vgl. Werner 1989: 8). Wenn der Austausch von Informationen allerdings nicht nach einem festgelegten Protokoll erfolgt, ergeben sich Probleme der Verständigung; wenn die Informationssuche nicht pragmatisch abgebrochen wird, ergeben sich Zeitprobleme.

Wie lassen sich die Emergenz von Sozialstrukturen auf der einen Seite und die Annahme autonomer Agenten miteinander vereinbaren? Nigel Gilbert, Rosaria Conte und Cristiano Castelfranchi orientieren sich bei der Beantwortung dieser Frage an der Strukturierungstheorie von Anthony Giddens. Mit seiner Auffassung von der Dualität der Struktur versucht er beide Perspektiven zu verbinden. Strukturen sind "sowohl Medium wie Ergebnis der Praktiken, die sie rekursiv organisieren" (Giddens 1988: 77). Sie sind nicht wie bei Durkheim äußerlich und nur einschränkend, sondern sie sind Aspekte des Handelns selbst und auch dieses ermöglichend. Handlungen sind routinemäßiges, rekursives Tun und gleichzeitig reflexives Steuern dieses Tuns. Sie sind nicht wie bei der Wahltheorie nur intentionales und strategisches Verhalten.

Giddens hat ein abgestuftes Handlungsmodell vorgelegt. Darin verbindet er das unterbewußte Routinehandeln, das wohl am stärksten für die Dauer und die Härte von Strukturen verantwortlich ist und gleichzeitig für Seinsgewißheit sorgt, mit dem praktischen Handeln, welches den ständigen Strom des ersteren motiviert und reflexiv steuert, und dem diskursiven Handeln, das nur in Ausnahmefällen in Erscheinung tritt, wenn in der Begegnung mit anderen die impliziten Gründe offengelegt, gerechtfertigt oder abgewogen werden (vgl. Giddens 1988: 55-57).

Diese Kombination von einfachen "reaktiven" mit komplexen, kognitiv kontrollierten und mit gänzlich frei intendierten Handlungen macht diesen Ansatz für die Modellierung von technischen Agenten und deren Kooperation in Multi-Agenten-Systemen attraktiv. Ich habe in der VKI-Literatur ein erstaunlich ähnliches Modell gefunden, ohne daß sich der Autor explizit auf den Ansatz von Giddens bezöge. Es wird dort eine "Drei-Schichten-Struktur" des Agenten vorgestellt, in der "simple reflex actions", "complex skilled routines" und "fully deliberative actions" unterschieden werden (vgl. Kiss 1992, zit. nach Sundermeyer 1993: 26). Es wird dann auf dieser Grundlage eine Typologie der Agenten errichtet, die vom "primitiven Agenten", der nur Sensor und Aktor verbindet, über den "technischen Agenten", einem programmgesteuerten System, den "technisch-intelligenten Agenten", der flexibel auf Ereignisse reagieren kann, den "kognitiven Agenten", der fähig zu Reflektion und Introspektion ist, bis hin zum "sozialen Agenten", der mit bewußter Interaktionsfähigkeit ausgestattet ist (Ebda.: 28). Vor allem die Kommunikation und Organisation dieser "sozialen Agenten" haben die anspruchsvollen Vertreter einer "harten" VKI vor Augen, wenn sie ihr Ziel des "Modelling Autonomous Agents in a Multi-Agent-World (MAAMAW)" (Castelfranchi/Werner 1994) verfolgen.

Selbstverständlich bewegt sich die Introspektionsfähigkeit und die Interaktionsfähigkeit bei technischen und menschlichen Agenten in einem anderen Kompetenzrahmen und basiert vor allem auf unterschiedlichen Medien, einerseits Zeichensystemen auf physikalischen Trägern und andrerseits symbolischer Sprache vermittelst organischer Körper. Aber was sich aus diesem Vergleich trotzdem lernen läßt, ist die Tatsache, daß die Unterscheidung von routinemäßigem und reflektiertem Handeln die Ökonomie der Arbeitsteilung in menschliche und technische Agentengesellschaften hineinbringt und Anlaß zu einer weiteren Differenzierung von Agententypen und zur Herausbildung komplexerer Systeme wird. Daher erklärt sich auch, daß die Pionierarbeiten zur Simulation von Gesellschaften, die noch von einfacheren Agenten-Modellen ausgingen, weniger komplexe archaische oder primitive Gesellschaften bevorzugten, auf die man von außen blicken konnte (vgl. Doran/Gilbert 1994: 16; Doran 1994).

Bei der Konstruktion komplexerer künstlicher Gesellschaften verspricht die Strukturierungstheorie von Giddens eine offenere Lösung für das Problem der Verbindung von Handlungsfähigkeit und emergenten Sozialstrukturen. Sie schränkt mit ihrer an zeitlicher Repetition und sozialer Reproduktion durch die Akteure orientierten "weicheren" Strukturauffasssung die Handlungsfähigkeit nicht zu stark ein, wie es ansonsten durch die Annahme innerer und äußerer Zwänge geschieht. Sein Stufenmodell des Handelns und die Annahme von der Dualität der Struktur gehen am adäquatesten mit dem Paradox der "bounded autonomy" sozialer Agentenschaft um, nämlich einerseits von autonomen sozialen Agenten, die eigene Ziele setzen und verfolgen können, auszugehen und andrerseits eine soziale Welt, die Inputs für die Ziele der Agenten bereitstellt, anzunehmen (Conte/Castelfranchi 1995: 1). Sie erlaubt die Emergenz von neuen Eigenschaften ohne die behavioristische Engführung, nur auf interferierende Verhaltensstrukturen zu setzen, und sie schließt Kognition ein ohne die individualistische Einschränkung, nur auf rational kalkulierbare strategische Situationen zu rekurrieren: "Interacting agents in a common world produce phenomena that are not necessarily intended by the agents themselves but are none the less relevant to their later behavior and achievements." (Conte/Gilbert 1995: 12).

Ermergenzphänomene treten nicht nur als Strukturen von objektiven Beziehungen unter Agenten auf, die sich ihrer individuellen Ziele und Fähigkeiten nicht bewußt sind - dieser Typ entspräche am ehesten der Durkheimschen Auffassung -, sondern eben auch als Emergenz des Bewußtseins bei den Agenten über diese präkognitiven Bedingungen durch Lernen. Auf die Emergenz von sozialen Institutionen bezogen ließe sich zusammenfassen: Institutionen entstehen nicht nur aus blinder Emergenz, sondern sie können, wenn sie in ihrer Funktion erkannt und anerkannt werden, von denen, die sie für ihre eigenen Zwecke nutzen, durch ihre Handlungen reproduziert. Institutionen sind also weder nur äußeres Resultat, in die Mitglieder mittels Regeln und Normen hineinsozialisiert werden, noch nur freies Produkt von Verhandlungen zwischen Mitgliedern, die ihre Interessen verfolgen (Gilbert 1995: 152).

4.2 Die Auflösung der Mikro-Makro-Differenz

Die Mikro-Makro-Problematik wird häufig mit der Handlung-Struktur- Problematik vermengt (vgl. Ritzer 19??). Handlungsorientierte Ansätze werden mit einer Mikrofundierung, strukturorientierte Ansätze mit einer Makrofundierung gleichgesetzt. Es läßt sich jedoch leicht zeigen, daß es sich um zwei unterschiedliche Dimensionen und Debatten handelt. Strukturansätze beziehen sich nicht nur auf Makrophänomene, wie Durkheims "große" Sozialstrukturen, sondern auch auf Mikrophänomene, wie Goffmans "kleine" Interaktionsstrukturen. Handlungstheoretische Ansätze beschränken sich ebensowenig auf die Mikrosituationen individuellen Handelns, wie in der Theorie rationaler Wahl, sondern umfassen auch Makrophänomene kollektiven Handelns, wie Colemans Erweiterung für kollektive Akteure (vgl. Vollst in diesem Band).

Auch für den Umgang mit der sogenannten Mikro-Makro-Differenz bietet die Sozialtheorie von Giddens eine salomonische Lösung an. Es gibt für sie keine solche Ebenendifferenz, auch kein Aggregations- oder Desaggregationsproblem. Gesellschaft wird nicht als fest umschlossenes Gebilde aufgefaßt. Sie konstitutiert sich über den ständigen Strom von rekursiven Handlungen, der über immer größere Räume hinweg reicht und über immer längere Zeiten reproduziert wird (vgl. 1995: 24). Handeln findet immer als lokale Handlung unter zeitlich-räumlich Anwesenden statt. Globalität entfaltet lokales Handeln, wenn es eine über eine Episode hinausweisende zeitliche Dauer und eine über den Ort hinausreichende räumliche Fernwirkung erreicht. Die Wiederholung und Ausweitung von Handeln wird durch entsprechende "symbolische Zeichen", wie Schriftsysteme oder Geld, und durch "abstrakte Systeme", wie Wissenschaftsdisziplinen oder Wirtschaftszweige, ermöglicht.

Die Mikro-Makro-Differenz wird zu einem Stufenmodell der Raum-Zeit-Distanzierung umgewandelt, das verschiedene Grade der Dichte und der Systemhaftigkeit des Soziallebens kennt. Nicht zwischen Individual- und Gesellschaftsebene wird unterschieden, sondern es wird jedesmal untersucht, welche Spannen von Zeit und Distanzen von Raum Interaktionen überbrücken und in welcher Weise Interaktionen von kopräsenten Akteuren in Systeme mit großer Raum-Zeit-Ausdehnung strukturell eingebaut sind (Giddens 1988: 40). Mit der Entwicklung von Techniken, die Raum schneller überwinden und Zeit verdichten, steigen die Chancen für globales Handeln. Beschränkte sich das Handeln der Heinzelmännchen noch auf die örtliche Backstube und blieb der Schreibassistent noch auf den heimischen Computer begrenzt, kann das lokale Agieren eines Informationsassistenten, wenn er denn über die weltweite Internetinfrastruktur mit anderen Agenten verbunden ist, globale Wirkung entfalten. Wenn Distanzen überwunden und Zeiten desynchronisiert werden können, vergrößert sich der gesellschaftliche Erfahrungsraum.

Diese Perspektive zieht wiederum diejenigen Vertreter der VKI an, welche die Sozialität explizit modellieren wollen. Denn sie sehen die Eingebettetheit von Gesellschaften in Umwelten, ihre große Komplexität, ihre räumliche, zeitliche und funktionale Verteiltheit, das Vorhandensein reflexionsfähiger Akteure und die Kommunikation unter ihnen als wesentliche Eigenschaften der zu simulierenden Gesellschfaten an (Doran/Gilbert 1994: 15). Rosaria Conte und Cristiano Castelfranchi legen Wert darauf, daß sowohl die interaktionistische "Mikro"perspektive als auch die sozialstrukturelle "Makro"perspektive in die Modellierung von Multi-Agenten-Systemen eingehen. Einerseits werden Regeln zwischen den Agenten ausgehandelt nach der sozialkonstruktivistischen Devise "building through interaction"; andrerseits werden kognitive Strukturen durch objektive soziale und materielle Bedingungen geformt nach dem Motto "social shaping of the mind". Sie sehen in Giddens' Strukturierungstheorie eine dialektische Lösung des Mikro-Makro-Problems, die formal noch dunkel bleibt, aber mit der Annahme einer fundamentalen, substantiellen Zirkularität zwischen Gesellschaft und sozialem Handeln den richtigen Weg weist (Conte/Castelfranchi 1995: 8). Statt der Trennung von Mikro-und Makroebene können mit ihr viele Ebenen der Emergenz unterschieden werden (Gilbert 1995: 149).

Abweichend von Giddens' Praxistheorie, in der die Begegnung der Körper und die Bindung durch Emotionen eine bedeutende Rolle spielen (Giddens 1988: 91, 218), wird diese Perspektive von Conte und Castelfranchi in eine rein kognitive Theorie der Vergesellschaftung umgebaut. Sie gehen davon aus, "that cognition is the medium of structuration." (Conte/Castelfranchi 1995: 8). Sie entwerfen ein dreigliedriges Modell der Vermittlung von Mikro- und Makroebene: a) Kognitionen verkörpern darin gesellschaftliche Vorschriften und Institutionen und sind unzweifelhaft durch die Gesellschaft strukturiert. b) Nicht alle sozial strukturierenden Eigenschaften sind in den Köpfen der Agenten explizit repräsentiert. c) Makrophänomene können von Mikrointeraktionen nicht-intendiert emergieren. Sie können aber auch absichtlich erzeugt werden. Und sie können auch nicht-intendierte Effekte auf die Mikrophänomene haben (Ebda.: 9). Ob nach einem derart ausgefeilten Modell auch leistungsfähigere Multi-Agenten-Systeme konstruiert werden können, bleibt erst noch abzuwarten. Zumindest zeigt es eine erstaunliche Annäherung an eine Sozialtheorie der Konstitution von Gesellschaft durch Handeln.

4.3 Die Differenz von Subjekthaftigkeit und Objekthaftigkeit oder das Problem nicht-menschlicher Agenten

Es ist leicht vorauszusehen, daß sich die Debatten um die künstliche Intelligenz mit den Fragen, ob Maschinen im Vergleich zum Menschen "intelligent" sein können, was Computer immer noch nicht können oder wann Programmen im Turing-Test ein intelligentes Verhalten zugerechnet wird (vgl. u.a. Dreyfus/Dreyfus 1987; Searle 1986; D'Avis 1994; Heintz 1995), mit einer leichten Verschiebung der Themen fortsetzen werden: Können technische Agenten untereinander "sozial" handeln? Können wir aus Emergenzphänomenen in Simulationsmodellen überhaupt etwas über gesellschaftliche Emergenzen lernen? Wieweit können und sollten wir uns auf die "Schattengesellschaft" der Heinzelmännchen im Hintergrund verlassen?

Statt uns auf solche Grundsatzdebatten einzulassen, scheint es mir sinnvoller zu fragen, unter welchen Bedingungen wir jeweils den Subjektstatus oder den Dingstatus einer Einheit zurechnen und welche Grade von Subjektivität oder Objektivität wir unterscheiden. Mit der Giddensschen Praxistheorie und der pragmatistischen Handlungstheorie vermeiden wir eine vorgängige Subjekt-Objekt-Unterscheidung und untersuchen ihre Genese in der jeweiligen Situation. Auf einer einfachen Ebene alltäglichen Handelns - nennen wir es Routinehandeln -, spielt die Subjektivität keine große Rolle. Der Bankkassierer wie auch der Geldautomat fungieren als Agenten, die meine Intention, Bargeld von meinem Konto abzuheben, erkennen, meine Berechtigung dazu nach festen Regeln überprüfen und mir dann die gewünschte Summe auszahlen. Ein Zuviel an Subjektivität des Kassierers, z. B. eine Antipathie gegen meine Person, könnte sogar der effektiven Handlungsausführung schaden. Handlungsfunktionen auf dieser Routineebene oder wenn sie sich auf Routinehandlungen reduzieren lassen, können von Maschinen oder Menschen gleichermaßen ausgeführt werden (vgl. auch Collins 1990).

Wenn allerdings mein auffälliges Verhalten und die Verknüpfung dieses Sachverhalts mit einer Zeitungsmeldung über Banküberfälle den Kassierer aus seiner Routine reißt, entsteht ein höherer Grad an Subjektivität, die ihn zu einer unvorhergesehenen Entscheidung veranlaßt: selbst eingreifen, offen "Haltet den Dieb!" rufen, heimlich den Alarmknopf drücken oder erst auszahlen und später die Polizei benachrichtigen. Diese Fähigkeit zur Reflexion, "to know, virtually all the time, under some description, what one is engaged in and why" (Giddens 1987: 5), unterscheidet den menschlichen Agenten von seinem technischen Abbild. Niemand der Vertreter einer Verteilten Künstlichen Intelligenz bestreitet diese Differenz. Wenn technische Agenten mit einer "communicative and social competence" und Systeme von Agenten, "that behave as a social unit or group" modelliert werden sollen (Werner 1989: 3), wird zwar eine Annäherung von Programmmodulen an kognitive, kommunikative und kooperative Routinen menschlicher Agenten angestrebt. Aber nicht Menschen als soziale Agenten, sondern das Entstehen der Sozialität aus ihrer Wechselbeziehung ist der gemeinsame Bezugspunkt von Soziologie und VKI. Die zentrale übergreifende Problemstellung lautet: "How it is possible for a group of independent agents, such as humans, robots, or processes in a distributed environment, to achieve a social goal?" (Ebda.).

Menschen, Roboter und Rechenprozesse gleichen sich nur auf dieser Ebene der Agentenrolle und der Beziehungen. Zwischen ihnen lassen sich hierarchische, marktförmige und kooperative Organisationsstrukturen herstellen. Bei der hierarchischen Organisation werden zum Beispiel Agenten mit globalem Wissen von anderen Agenten unterstützt; bei einer marktorientierten Organisation werden die Ressourcen gleich verteilt, und bei einer kooperativen Vernetzung werden Expertensysteme lose nach dem Modell der wissenschaftlichen Fachgemeinschaft verknüpft (vgl. Müller 1993: 14). Ohne Zweifel macht es jedoch einen Unterschied, aus welchem Stoff der Agent geschaffen, in welchem Medium die Form des Agenten eingeprägt ist (vgl. Abschnitt 3.1). Im Medium physikalischer Maschinen wird zweifellos die größte Determiniertheit und die geringste Flexibilität von Abläufen erreicht. Im Medium von Zeichen läßt sich die größte Vielfalt an Prozeßabläufen durchspielen und die höchste Flexibilität erreichen. Und im Medium menschlicher Handlungen lassen sich die meisten Fehler machen und dadurch die höchste Kreativität und das größte Lernvermögen erreichen. Auch wenn die Form des Agenten sich gleicht, das Medium macht den Unterschied.

Giddens' Konstitutionstheorie ist für die VKI so interessant, weil sie nicht mit einem emphatischen Handlungsbegriff beginnt und den Agenten nicht gleich als subjektiv "pre-constituted" versteht (Giddens 1987: 62). Handlungen werden unabhängig von Intentionen als Entfalten von Routinen, die das Alltagsleben konstituieren, bestimmt. Sein Ausgang von der grundlegend rekursiven Natur des Soziallebens ist für die Übertragung auf maschinelle Kopplungen und auf zeichenhafte Algorithmen hervorragend geeignet. Seine auf menschliche Agenten bezogene Aussage über die wechselseitige Strukturierung: "My actions constitute and reconstitute the institutional conditions of actions of others, just as their actions do of mine." (Ebda.: 11) könnte ebensogut auf die von Conte und Castelfranchi modellierten Systeme technischer Agenten gemünzt sein. Auch dort ändern sich mit der Aktion eines Agenten die Rahmenbedingungen für die anderen, auf die sie sich neu einzustellen haben, was wiederum einen neuen Rahmen für den ersten Agenten schafft. Nach dem fortgeschrittenen Modell des "self-reflective actor" (McFadden 1992: 344), können Agenten andere Agenten kreieren, Nachrichten senden, um neue Aufgaben zu schaffen und selbst neue Verhaltensweisen annehmen. Agenten sind nicht auf Rollen, die ihr Verhalten festlegen und für andere Agenten erkennbar machen, dauerhaft festgelegt. Im Rahmen der Modellierung eines Multi-Agenten-Systems als Vertragsnetzwerk kann jeder Agent jede Rolle, z.B. Manager oder Vertragsnehmer, übernehmen, und das sogar gleichzeitig für verschiedene Verträge mit wechselnden Rollen (Werner 1989: 27).

Aus der Beobachtung, wie menschliche und technische Agenten in solchen zielorientierten Systemen mit der Emergenz umgehen, läßt sich kein Unterscheidungskriterium gewinnen. Menschliche Gesellschaften unterscheiden sich nicht von der Gesellschaft der technischen Heinzelmännchen dadurch, "that people are routinely capable of detecting, reasoning about and acting on the macro-level properties (the emergent features) of the societies of which they form part." (Gilbert 1995: 151). Über diese Fähigkeiten verfügen auch - wie wir aus der einschlägigen Literatur entnehmen konnten - fortgeschrittenere technische Agenten.

Man muß nicht gleich das gesamte soziologische Projekt infragegestellt sehen (vgl. Collins/Yearley 1992; Wolfe 1993), wenn den menschlichen Agenten ein Teil der Handlungsträgerschaft genommen und technischen Agenten ein Teil zugewiesen wird. Vielmehr tut eine solche Dezentrierung des menschlichen Subjekts (Pickering 1993: 561) der soziologischen Diskussion gut. Muß sie sich doch viel genauer darum bemühen, empirisch die Anwesenheit, die Modalität und die Verteiltheit von "agency" nachzuweisen. Es besteht nämlich eine verständliche Tendenz, den Status des Agenten anderen Wesen oder gar Objekten zu verweigern. Er soll als unveräußerliche und unteilbare Eigenschaft des Menschen gelten und sie dadurch von anderen Wesen und Dingen abgrenzen, und je mehr dieser Status an andere verliehen wird, desto stärker verringert sich der Agentenstatus des Menschen (Fuller 1994: 741).

"Agency" sollte stattdessen als eine attribuierte Eigenschaft und als ein teilbares Gut betrachtet werden. In Gerichtsverfahren wird zum Beispiel häufig über die Einschränkung der menschlichen Handlungsfähigkeit durch das Geltendmachen anderer widriger Agenten für einen Tatbestand verhandelt. Grundsätzlich sinkt mit der Anzahl der Mithandelnden der Wert der einzelnen Handlungsträgerschaft. Das gilt nicht nur für menschliche Mithandelnde, sondern auch für Tiere, Naturkräfte, Maschinen und korporative Akteure (Fuller 1994: 751). "Agency" entsteht demnach nicht "ex nihilo", gleichsam als feste Masse oder reale Person, die sich nach einer eigenen inneren Tendenz bewegt, sondern "agency in medias res begins with a point of friction in an already constituted social space that resists any easy assimilation to the categories of existing laws and structures" (Fuller 1994: 746). Damit öffnet Steve Fuller einen empirischen Untersuchungsraum, indem über das Entstehen und die Verteilung von "Agency" in Assoziationen von menschlichen und nicht-menschlichen Agenten verhandelt werden kann.

Mit dieser Fragestellung haben wir die Grenzen des Vergleichs von Gesellschaften, die durch das Handeln menschlicher Akteure konstituiert werden, mit Gesellschaften, die für die Interaktion vieler technischer Agenten konstruiert werden, überschritten. Auf diesem Feld der Assoziation der Menschen mit Menschen und der Menschen mit Dingen kann die Frage untersucht werden, unter welchen Bedingungen welchen Einheiten oder Prozessen Subjekt- oder Objektstatus zugerechnet und nach welchen Schemata etwas zur Gesellschaft oder zur Umwelt, zur Natur oder zur Künstlichkeit gezählt wird. Am Beispiel von technischen Geräten, Detektoren in der Elementarteilchenphysik, die künstlich erzeugte Naturphänomene aufzeichnen, konnte Andrew Pickering nachweisen, wie fruchtbar die Annahme sein kann, "that material and human agency are mutually and emergently productive of oneanother" (Pickering 1993: 567). Menschliche und technische Agency ähneln sich darin, daß sie beide über repetitive Eigenschaften verfügen und jeweils nur zeitweilig emergent sind. Die Widerständigkeit technischer Objekte entsteht nur zeitweise unter dem Einfluß menschlicher Praxis. Umgekehrt wird auch die Intentionalität menschlicher Agency in Auseinandersetzung mit der anderen Seite immer wieder neu angepaßt. Beide Seiten übernehmen zeitweise Handlungsführerschaft, geben sie zeitweise in der "Mangel der Praxis" ab und stellen sich im wechselseitigen Strom nach jeweiligen Friktionen wieder neu aufeinander ein. Wissenschaftliche Ergebnisse und funktionierende technische Geräte entstehen, wenn es zu einer dauerhafteren erfolgreichen wechselseitigen Stabilisierung kommt. Es besteht eine konstitutive Verflechtung zwischen materieller und menschlicher Agentenschaft (Pickering 1995: 15).

Für den Erfolg von Multi-Agenten-Systemen bedeutet dieses Ergebnis, daß es nicht nur ausreicht, nach angemessenen Sozialmetaphern für die Konstruktion zu fahnden oder die Architektur der Agentengesellschaften sozialtheoretisch zu fundieren. Für das Funktionieren dieser Systeme ist es von entscheidender Bedeutung, wie sich der Umgang der menschlichen Agenten mit den technischen Agenten entwickelt. Zum Beispiel hängt die weitere Entwicklung davon ab, wie sich die technischen Agenten uns gegenüber als kooperative und vertrauenswürdige Mitbewohner der Computerwelt verhalten, oder wie sich die menschlichen Agenten angesichts der Fähigkeiten und Verhaltensweisen, die sie in der täglichen Interaktion mit diesen Heinzelmännchen erfahren, sich selbst anders wahrnehmen (vgl. dazu Turkle 1995) und ihr Verhalten ändern. Dieses Wechselspiel der Strukturierung wäre ein zentraler Untersuchungsbereich für eine Soziologie.

Gestärkt wird diese freundliche Haltung zu den Heinzelmännchen noch durch eine Tendenz, über die Sozialität der Objekte nachzudenken. Die Entbettung traditioneller sozialer Bindungen in der radikalisierten reflexiven Moderne (Beck/Giddens/Lash 1996) ist mit einem Zwang zur "Individualisierung" verbunden. Einige erwarten dadurch höhere Chancen für die Subjektivität, andere diagnostizieren eher ein Verschwinden de Subjekts. Auf jeden Fall zeigt sich hier eine "allmähliche Verflüsigung" des Sozialen als soziologischer Gegenstand: Das Soziale reduziert sich auf " eine durch Querverweise figurierte Verteilung singulärer Punkte in einem Raum voller Interaktionen" (Bude 1991: 108). Der Autor war sich der Nähe zu Gesellschaftsbestimmungen der VKI, z.B. von verteilten Punkten in einem Netz mit Postadressen und Interaktionsszenen (vgl. McFadden 1992 und Werner 1989), sicherlich nicht bewußt. Gegen diese Richtung, den Schwund traditionaler sozialer Bindungen der Freundschaft, Familie und Gemeinschaften festzustellen und zu beklagen, setzt Karin Knorr-Cetina die starke These der "Objektualisierung", daß auf der anderen Seite nämlich neue objekt-zentrierte Sozialbeziehungen entstünden (Knorr Cetina 1997). Sie denkt vor allem an epistemische Objekte, die zum Beispiel wissenschaftliche oder professionelle Kulturen mitkonstituieren. Objektuale Beziehungen wachsen aus dem Empfinden des Mangels und der korrespondierenden Struktur des Wünschen. Auch hier ist ähnlich wie bei Pickering eine Beziehung zwischen Objekt und Subjekt konzipiert, die auf der Gegenseitigkeit gründet. Objekte sind nicht feststehende ontologische Dinge, sondern "sich selbständig entfaltende Strukturen", die zeitweise anwesend und zeitweise abwesend sind (Ebda.: 14). Mit Objekt gehen wir zunehmend soziale Beziehungen ein, die durch Wechselseitigkeit und zum Teil solidarischem Empfinden gekennzeichnet sind.

Auch die Beziehung zu den Objekten, an die wir unsere Aufgaben delegieren, den technischen Agenten, können unter dieser Perspektive als besondere soziale Beziehungen untersucht werden. Wenn die These, "daß Objekte eine bedeutende Rolle bei der Konstituion nachsozialer Kontexte spielen" (Knorr Cetina 1997: 22), dann fallen die technischen Agenten und die Multi-Agenten-Systeme ganz bestimmt darunter: Sie erfordern ein hohes Maß an wechselnder Bezugnahme, die häufig unter dem Stichwort "Interaktivität" abgehandelt wird; die Interaktion mit ihnen nimmt einen wachsenden Anteil unserer relevanten sozialen Aktivitäten in Anspruch; und die ständige Begegnung mit ihnen läßt sie zunehmend zu einem "signifikanten Anderen" werden, der unsere Gefühle und Haltungen mitprägt. Diese Objekte können so etwas wie "die Versicherungsagenten" der eigenen subjektiven Wirklichkeit werden (Berger 1970 nach Pflüger 1997: 20).

Gegenstand einer Untersuchung im Sinne der weitesten Form der zweiten Option (vgl. Abschnitt 3.2) sind also die Emergenz und die Verteilung von menschlicher und materieller Handlungsträgerschaft, wie sie aus den sozialen Praktiken der menschlichen Subjekte und den sozialen Operationen der technischen Objekte und aus ihren wechselseitigen Verknüpfungen entstehen. Nicht die vorgängige Zuteilung von Kompetenzen auf die unterschiedlichen Agenten, sondern das Studium der Performanzen und die nachträgliche Zurechnung von "Agency" stehen zur Debatte. Mit John Dewey, Daniel Dennett, Steve Fuller, Andrew Pickering und Karin Knorr Cetina wissen wir uns einig, daß es nicht angehen kann, "agency, ... all to human beings and none to the material world" asymmetrisch zu verteilen (Pickering 1993: 562), wie es Alan Wolfe, Harry Collins und Steve Yearley vorschlagen. Agency entsteht zeitlich begrenzt, wenn Routinehandlungen unterbrochen werden. Diese zeitliche Emergenz von Agency kann sich sowohl in menschlichen als auch in maschinellen Agentensystemen ereignen. Trotzdem bricht eine Differenz die von Woolgar und Latour geforderte Symmetrie: Nur die menschlichen Agenten scheinen über eine Intentionalität zu verfügen, Ziele zu konstruieren, die sich auf zukünftige Zustände beziehen, und diese anzustreben (Ebda.: 566). Aber wird nicht durch das Vorhandensein von technischen Agenten und durch den Kontakt mit Agentensystemen diese Fähigkeit stark eingeschränkt?

5. ...und die Moral von der Geschicht': "Streue keine Erbsen nicht!"

Befinden wir uns nun mit den Agenten und Agenten-Verbänden in guter Gesellschaft? Die Frage ist nicht so leicht zu beantworten, wie in den meisten Märchen oder in Science-Fiction-Filmen. Dort werden in der Regel die guten und bösen Wesen voneinander geschieden. Nur in kunstvoll gestrickten Geschichten wird die Ambivalenz aufrechterhalten und nicht sogleich aufgehoben. Gut und böse sind keine Eigenschaften von Dingen oder Wesen, sondern entstehen aus der Begegnung mit ihnen und der Beziehung, in die man sich mit ihnen begibt. Wie steht es damit bei den Multi-Agenten-Systemen?

Die Multi-Agenten-Systeme wirken im Hintergrund; für den Nutzer ist ihr Schaffen nicht transparent. Er begegnet ihnen nur über ein Bild oder eine Menüleiste auf dem Bildschirm, wo sie ihre Dienste anbieten oder ihre Ergebnisse abliefern. Ihr Schaffen und ihre Vorgehensweise bleiben, wie bei den Heinzelmännchen, im Dunkeln. Auch wenn die Operationen der Agenten hinter dem Rücken oder besser hinter dem Bildschirm stattfinden, sind sie doch nicht gleich hinterrücks. Wenn der Nutzer nicht alle ihre Schritte beobachten und nachvollziehen kann, sind doch nicht gänzlich außer Kontrolle und gefährlich. Denn diese Entlastung von der ständigen Aufmerksamkeit erwarten wir von Techniken. Neben der Dienlichkeit und Verläßlichkeit ist die Entlastung ein wesentlicher Grund für die Technik. Solange man nicht Zündung, Vergaser, Ventile und Kraftübertragung und deren Zusammenwirken ständig überprüfen muß, kann man sich davon entlastet auf das Lenken des Fahrzeugs und die Bewältigung des Verkehrs konzentrieren. Solange die Agenten und ihr wie auch immer geartetes Zusammenspiel, das über größere Freiheitsgrade als das Zusammenwirken der Komponenten beim Kraftfahrzeug verfügt, im Hinblick auf ihre Leistungen kontrolliert werden können, haben wir eine funktionierende und verläßliche Technik vor uns.

Allerdings können wegen der höheren Freiheitsgrade vermehrt unvorhergesehene Interaktionen und ungewollte emergente Strukturen auftauchen. Zum Beispiel mein zeitlich begrenztes Interesse für Informationen über Multi-Agenten-Systeme kann meinen Such- und meinen Terminagenten dazu veranlassen, mich bei Kongressen anzumelden oder Informationsdienste zu abonnieren, die mehr mit Informatik und weniger mit Soziologie zu tun haben. Fremde Agenten könnten daraufhin mich vermehrt auf Verteilerlisten der Informatik setzen, so daß ich entgegen meiner längerfristigen Absicht in der Gesellschaft der Agenten zunehmend als Mitglied der Informatikerzunft repräsentiert werde. Diese Emergenz eines schiefen Bildes von mir gefährdet nicht das Vertrauen in diese Technik, solange ich diese Verschiebung leicht feststellen und ohne großen Aufwand korrigieren kann. Je intensiver der gesellschaftliche Verkehr zwischen den Agenten anwächst, desto begrenzter wird jedoch die persönliche Kontrolle über das Selbstbild und desto mehr ähnelt sie der Selbstpräsentation und ihren nicht berechenbaren Effekten in der zwischenmenschlichen Beziehung. Mit den Agenten und ihrem Austausch im Netz entsteht damit ein weiterer Erfahrungsraum (vgl. Rammert 1997b),in dem wir die Techniken der Selbstpräsentation und des Identitätsmanagement im Sinne von Erving Goffman neu und zusätzlich erlernen müssen. Wer sich der Agenten bedient und wer sich über das Netz mit anderen Computern und Agenten verbinden läßt, handelt gewissermaßen im Einverständnis mit den möglicherweisen emergenten Strukturen, die sich nicht nur aus der Interaktion zwischen Agenten, sondern auch aus der Interaktivität von Nutzern und Programmen entsteht. Und er handelt im Vertrauen darauf, daß er diese Strukturbildungen durch sein eigenes Handeln mitbeeinflussen oder auch ihre unerwünschten Effekte kompensieren kann.

Hinter diesen Aussagen verbirgt sich ein Technikverständnis, das Technik nicht nur als Mittel für einen Zweck auffaßt, und das nicht davon ausgeht, daß ein menschliches Subjekt einem technischen Objekt gegenübersteht und es beherrscht. Solche überzogenen instrumentalistischen und subjektzentrierten Auffassungen schlagen schnell in ihr Gegenteil um, wenn die Verselbständigung der Mittel gegenüber den Zwecken beklagt und die Herrschaft der Dinge über den Menschen kritisiert wird. Die Ambivalenzen moderner Technik, daß sie nicht einfunktional, sondern multifunktional ist, daß sie nicht perfekt regelbar, sondern im Zusammenwirken nur begrenzt kontrollierbar (vgl. Wynne 1988) und daß sie nicht unabhängig vom Umgang mit ihr, sondern in Abhängigkeit von Deutung, Praktiken und Kontext ihre Funktion erhält, werden mit solchen Auffassungen zu schnell beiseitegeschoben. Ein Multi-Agenten-System als nützliches Instrument zu betrachten, das der einzelne für einen bestimmten Zweck einsetzen und kontrollieren kann, verengt von vornherein die Sicht und lädt, wenn davon Abweichungen oder Verselbständigungen beobachtet werden, geradezu zu voreiliger Ablehnung ein.

Ein pragmatistisches und medientheoretisches Technikverständnis hält sich im Vergleich dazu offen für intermediäre Beziehungen zwischen Menschen, Maschinen und Zeichen jenseits der Differenz von menschlichem Zweck und technischem Mittel und für die zeitlich wechselnde und räumlich verteilte Emergenz von Agentenschaft und Technostruktur jenseits der Differenz von Subjekt und Objekt. Der Grund der Technik liegt nicht in ihrer Instrumentalität. Wir setzen uns mit ihr in ein neues Verhältnis zur Welt. Techniken sind Medien dafür, wie wir Welt umformen, wie wir Welt wahrnehmen und wie wir uns selbst definieren. Die Multi-Agenten-Systeme setzen uns in ein neues Verhältnis zu unserem Wirken, zu unserer Sicht von Gesellschaft und zu uns selbst als Handelnden.

Die Ergebnisse dieses Nachdenkens konfrontieren die Soziologie mit der fundamentalen Frage nach dem "Stoff", aus dem Gesellschaften gemacht sind. Besteht die Gesellschaft nur aus Kommunikationen, wie es die autopoietische Systemtheorie unterstellt, die Körper und Maschinen in die Umwelt der Gesellschaft verweist, die sie nur im Medium der Kommunikation thematisieren kann und mit der sie ansonsten "strukturell gekoppelt" ist, also sich in einem wechselseitigen Störungsverhältnis befindet. Damit wären schon instrumentalistische und subjektzentrierte Auffassungen zurückgewiesen. Da mir das Verhältnis der strukturellen Kopplung zu wenig aussagekräftig und mir die Agentenschaft zu ausschließlich auf das System verlagert ist (siehe den Beitrag von Baecker i.d.Bd. und 1995), würde ich in Anlehnung an und über die Strukturierungstheorie von Giddens hinaus von einer "Multimedialität" des Sozialen ausgehen. Das Soziale konstitutiert sich sowohl im Medium der Zeichen als auch im Medium der menschlichen Körper als auch im Medium der physikalischen Dinge. Techniken als besondere Formen des Sozialen, die durch eine enge, dauerhafte und effektive Kopplung von Elementen entstehen, sind dementsprechend auch durch den Bezug auf die drei Medien geprägt.

Multi-Agenten-Systeme sind auf Spannungszustände in Computern, auf Festplatten und in Netzen angewiesen und ihre Verbreitung könnte sich wiederum auf die Architektur der Rechner und der Netze zurückwirken. Dieses wäre ein Beziehung der "Interobjektivität", wie ich sie genannt habe, welche in erster Linie die Techniker anginge. Sie kann aber auch soziologisch untersucht werden, wenn es um ihre Formierung in der Mangel der Praxis geht (vgl. Pickering 1995). Die Multi-Agenten-Systeme bestehen auch aus kompliziert verschachtelten Zeichenstrukturen, Codes und Programmen, Bildern und Schriftzeichen, die auf verschiedenen Ebenen etwas darstellen und miteinander präzise verfahren. Agenten sind demnach Spezialprogramme, die teilautonom und teilintelligent ihre Zeichenstrukturen ohne direkte Kontrolle verändern. Man könnte dieses Verhältnis als eines der "Intertextualität" bezeichnen, weil sich Texte gleichsam selbständig zu anderen Texten in Relation setzen und sich wechselseitig verändern. Schließlich bedarf es jedoch auch der herstellenden, intervenierenden und auslösenden Interaktion (vgl. Faßler 1996) mit handelnden und wahrnehmenden menschlichen Körpern, wie in Techniktheorien und in Konstruktionspraktiken so leicht vergessen wird.

Die Interaktion unter den menschlichen Körpern konstitutiert nach traditionellem Soziologieverständnis die "Intersubjektivität". Davon hatten wir die "Interaktivität" als eine Beziehung zwischen den menschlichen und technischen Agenten unterschieden. Wenn wir jetzt mit diesen Unterscheidungen die Themen und Fragestellungen sortieren, dann machen Fragen der Intersubjektivität den Kernbereich der traditionellen Soziologie aus. Die Vertreter der Verteilten Künstlichen Intelligenz gehen an Fragen der "Intertextualität", wie man Programme miteinander interagieren lassen kann, nicht mehr nach dem Muster der Maschinenbauer, die es wesentlich mit den Beziehungen zwischen den Objekten zu tun haben, heran, sondern nach dem Vorbild der Soziologie. Um jedoch beide Forschungsfelder voranzubringen, habe ich vorgeschlagen, auch die "Querbeziehungen" zwischen den Ebenen, die "Interaktivität", mit in die Problemstellung aufzunehmen.

Beide Seiten könnten aus dieser um die Multimedialität und Interaktivität erweiterten Sicht des Sozialen theoretischen und praktischen Gewinn ziehen. Die Softwareentwickler könnten akzeptablere und besser nutzbare Systeme entwickeln, wenn sie bei ihrer Arbeit nicht nur mit den physikalischen Eigenschaften der Geräte und den Architekturen der Netze rechneten, sondern sich von vornherein die Interaktivität mit den menschlichen Akteuren einließen. Dann würden sie das Interface als eine "Bühne" für Erleben und Handeln einrichten, einer virtuellen Welt, die von Agenten beider Arten, menschlichen und computer-generierten, bevölkert ist (Laurel 1991: 17). Soziologische Theorieentwickler wären ebenso gut beraten, nicht nur die Interpenetration der sozalen Systeme mit den psychischen Systemen ins Kalkül zu ziehen, sondern auch die Kopplungen mit Körpern und physikalischen Dingen stärker zu reflektieren. Wenn sie die Interaktivität mit Objekten jeglicher Art, mit Computern (Geser 1989; Wagner 1997), mit dem Klima , mit Sammlungsobjekten (Star/Griesemer 1991) oder mit Laborartefakten (Knorr Cetina 1992), in die Theoriearbeit miteinbezögen, könnten wir wahrscheinlich wesentlichen Wandlungen der Gesellschaft in ihrem Verhältnis zur Wissensverarbeitung und zur natürlichen Umwelt eher auf die Spur kommen. Das Studium unserer Beziehungen zur Gesellschaft der Heinzelmännchen könnte ein exemplarisches Feld sein, an dem wir unser neu gesehenes Verhältnis theoretisch fassen und praktisch erproben können, gleichsam ein Labor und Spielfeld für die Analyse der sich reflexiv transformierenden modernen Gesellschaft.

Nähmen wir Sozialtheoretiker die Gesellschaft der Heinzelmännchen, die sich neben unserer alten Gesellschaft ausbreitet, nicht wahr oder bestritten wir gar die Existenz dieser Agenten als Teile der sozialen Wirklichkeit, dann blieben wir blind für ihre konstitutiven Leistungen. Wenn wir ihnen begegnen und sie kennenlernen wollen und wenn wir die Anteile an menschlicher und computer-generierter Agentschaft realistisch einschätzen wollen, dann müssen wir die Treppe der Interaktivität mit ihnen freihalten und sie nicht durch das Streuen disziplinpolitischer Erbsen aus dem Haus der Soziologie verscheuchen.


Verwendete Literatur:

Ahrweiler, P., 1995: KI West und KI Ost: Die Institutionalisierung eines Hochtechnologiefachs in Deutschland; in: W. Rammert (Hrsg.): Soziologie und künstliche Intelligenz. Frankfurt/M.:Campus, 111-31

Ahrweiler, P., i.d.B.: Theorieforschung in der Wissenschaftsforschung mit VKI

Axelrod, 1995 in: Gilbert/Conte

Baecker, D., 1995: Über Verteilung und Funktion von Intelligenz im System; in: W. Rammert (Hrsg.): Soziologie und künstliche Intelligenz. Frankfurt/M.: Campus, 161-86

Baecker, D., i.d.B.:

Beck, U./Giddens, A./Lash, S., 1996: Reflexive Modernisierung. Frankfurt/M.: Suhrkamp

Becker, B./Paetau, M., 1992: Von der kognitiven zur interaktiven Adäquatheit. Expertensysteme zwischen Substitution und Assistenz menschlicher Problemlösungen; in: T. Malsch/U. Mill (Hrsg.): ArBYTE. Modernisierung der Industriesoziologie? Berlin: Sigma, 133-55

Bachmann, R., i.d.B.: Kooperation, Vertrauen und Macht in Systemen Verteilter Künstlicher Intelligenz

Ben-David, J./Collins, R., 1974: Soziale Faktoren im Ursprung einer neuen Wissenschaft: der Fall der Psychologie; in: P. Weingart (Hrsg.): Wissenschaftssoziologie 2. Determinanten wissenschaftlicher Entwicklung. Frankfurt/M.: Athenäum, 122-52

Bloor, D., 1991: Knowledge and Social Imagery. 2nd ed. Chicago: U.P.

Bond, A./Gasser, L. (eds), 1988: Distributed Artificial Intelligence, San Mateo, CAL: Morgan Kaufmann

Breiter, A., 1996: Die Forschung über Künstliche Intelligenz und ihre sanduhrförmige Verlaufsdynamik; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 47, H. 2, 295-318

Bude, H., 1991: Auflösung des Sozialen? Die allmähliche Verflüssigung des soziologischen "Gegenstandes" im Fortgang der soziologischen Theorie; in: S. Müller-Dohm (Hg.): Jenseits der Utopie. Frankfurt/M.: Suhrkamp, 100-122

Castelfranchi, C./Werner, E. (eds), 1994: Artificial Social Systems, Berlin: Springer

Collins, H.M., 1990: Artificial Experts. Social Knowledge and Intelligent Machines. Cambridge: MIT

Collins, H.M./Yearley, 1992: Epistemological Chicken; in: D. Pickering (ed.): Science as Practice and Culture. Chicago: U.P., 301-26

Conte, R./Castelfranchi, C., 1995: Cognitive and Social Action, London: UCL

Conte, R./Gilbert, N., 1995: Introduction; in: N. Gilbert/R. Conte (eds)...

Coy, W., 1995: Automat - Werkzeug - Medium; in: Informatik Spektrum, H. 18, 31-38

Dennett, D.C., 1990: The Interpretation of Texts, People and Other Artifacts; in: Preprints der Research Group "Mind and Brain" am ZiF der Universität Bielefeld, Nr. 15

D'Avis, W., 1994: Können Computer denken? Eine bedeutungs- und zeittheoretische Analyse von KI-Maschinen. Frankfurt/M.: Campus

Doran, J., 1994:

Doran, J./Gilbert, N., 1994: Simulating Societies: An Introduction; in: N. Gilbert/J. Doran (eds): Simulating Societies. The Computer Simulation of Social Phenomena, London: UCL

Dreyfus, H.L./Dreyfus, S.E., 1987: Künstliche Intelligenz. Von den Grenzen dr Denkmaschine und dem Wert der Intuition. Reinbek: Rowohlt

Durfee, E.H./Lesser, V.R./Corkhill, D.D., 1989: Cooperative Distributed Problem Solving; in: Barr/Cohen/Feigenbaum (eds): Handbook of Artificial Intelligence, vol. IV, New York: Addison&Wesley, 85-147

Esposito, E., 1995: Interaktion, Interaktivität und die Personalisierung der Massenmedien; in: Soziale Systeme

Faßler, M., 1996: Mediale Interaktion: Speicher, Individualität, Öffentlichkeit. München: Fink

Fieldes, C., 1987: Human-Computer-Interaction: A Critical Synthesis; in: Social Epistemology, vol.1, no. 1, 5-25

Florian, M. 1997: "Sociomedia" als Virtualisierung von Kultur? In: B. Becker/M. Paetau (Hg.): Virtualisierung des Sozialen. Die Informationsgesellschaft zwischen Fragmentierung und Globalisierung. Frankfurt/M.: Campus (i.E.)

Fox, M.S., 1981: An Organizational View of Distributed Systems; in: IEEE Transactions on Systems, Man, and Cybernetics, SMC11, 70-80

Fuller, S., 1994: Making Agency Count. A Brief Foray into the Foundation of Social Theory; in: American Behavioral Scientist, 37, 6: 741-53

Geser, H., 1989: Der PC alsa Interaktionspartner; in: Zeitschrift für Soziologie, Jg. 18, H. 3, 230-43

Giddens, A., 1987: Social Theory and Modern Sociology, Cambridge: Polity

Giddens, A., 1988: Die Konstitution der Gesellschaft, Frankfurt/M: Campus

Giddens, A., 1995: Konsequenzen der Moderne. Frankfurt/M.: Suhrkamp

Gilbert, N., 1995: Emergence in Social Simulation; in: N. Gilbert/R. Conte (eds)...144-56

Gilbert, N./Conte, R. (eds), 1995: Artificial Societies. The Computer Simulation of Social Life, London: UCL Press

Gilbert, N./Doran, J. (eds), 1994: Simulating Societies. The Computer Simulation of Social Phenomena. London: UCL

Hayes-Roth u.a. 1989

Heims, S., 1980: John von Neumann und Norbert Wiener. From Mathematics to the Technologies of Life and Death. Cambridge: Harvard U.P.

Heintz, B., 1995: "Papiermaschinen". Die sozialen Voraussetzungen maschineller Intelligenz; in: W. Rammert (Hrsg.): Soziologie und künstliche Intelligenz. Frankfurt/M.: Campus, 37-64

Hewitt, C.E., 1977: Viewing Control Structures as Patterns of Passing Messages; in: Artificial Intelligence, vol. 8, 323-64

Huhns, M./Gasser, L. (eds), 1989: Distributed Artificial Intelligence, vol. 2, London: Pitman

Kirn, S./Klöfer, A., 1995: Verbundintelligenz kooperativer Softwaresysteme: Organisationstheoretische Grundlagen, Stand der Technik und Forschungsaspekte; in: KI-Künstliche Intelligenz, H. 2, 20-28

Knorr Cetina, K., 1992: The Couch, the Cathedral, and the Laboratory: On the Relationship between Experiment and Laboratory in Science; in: A. Pickering (ed.): Science as Practice and Culture. Chicago U.P., 113-38

Knorr Cetina, K., 1997: Society with Objects. Social Relations in Postsocial Knowledge Societies; in: Theory,Culture, and Society (in print) zitiert nach Manuskript

Kornfeld, W.A./Hewitt, C.E., 1981: The Scientific Community Metaphor; in: IEEE Transaction on Systems, Man, and Cybernetics, SMC 11, 1, 24-31

Latour, B., 1994: On Technical Mediation: Philosophy, Sociology, Genealogy; in: Common Knowledge, vol. 3, no. 2, 29-64

Latour, B./Woolgar, S., 1986: Laboratory Life: The Construction of Scientific Facts. 2nd ed. Princeton: U.P.

Laurel, B., 1991: Computer as Theatre. Addison-Wesley

Lesser, V.R./Corkhill, D.D., 1983: The Distributive Vehicle Monitoring Testbed: A Tool for Investigating Distributed Problem Solving Networks; in: The AI Magazine 4, 15-33

Malsch, T., 1997: Die Provokation der "Artificial Societies" oder Warum die Soziologie sich mit den Sozialmetaphern der Verteilten Künstlichen Intelligenz beschäftigen sollte; in: Zeitschrift für Soziologie, Jg. 26, H. 1, 3-21

Malsch, T./ Bachmann, R./Jonas, M./Mill, U./Ziegler, S., 1993: Expertensysteme in der Abseitsfalle? Berlin: Sigma

Malsch, T./Florian, M./Jonas, M./Schulz-Schaeffer, I., 1996: Sozionik: Expeditionen ins Grenzgebiet zwischen Soziologie und Künstlicher Intelligenz; in: KI - Künstliche Intelligenz, 2, 6-12

Martial, F. von, 1992: Einführung in die Verteilte Künstliche Intelligenz; in: KI-Künstliche Intelligenz, H. 1, 6-11

McFadden, T., 1992: Notes on the Structure of Cyberspace and the Ballistic Actors Model; in: M. Benedict (ed.): Cyberspace: First Steps. Cambridge: MIT, 335-62

Müller, H.-J., 1993: Verteilte Künstliche Intelligenz. Mannheim: BI-Wissenschaftsverlag

Pflüger, J., 1997: Distributed Intelligence Agencies, Mskpt.

Pickering, A., 1993: The Mangle of Practice: Agency and Emergence in the Sociology of Science; in: American Journal of Sociology, 99, 3: 559-89

Pickering, A., 1995: The Mangle of Practice: Time, Agency, and Science. Chicago: U.P.

Rammert, W., 1993: Wie KI und TA einander näherkommen; in: KI - Künstliche Intelligenz, H. 3, 11-16

Rammert, W., 1997a: Relations that Constitute Technology and Media that Make Differences. Vortragsmskpt. vom Symposion "Advantages in the Philosophy of Technology", Karlsruhe

Rammert, W., 1997b: Virtuelle Realitäten als medial erzeugte Sonderwirklichkeiten - Veränderungen der Kommunikation im Netz der Computer; in: M. Faßler (Hrsg.): Alle möglichen Welten: Virtualität, Wahrnehmung, Kommunikation. München: Fink (i.E.)

Ritzer, G., 199?: Sociological Theory

Schelhowe, H., 1997: Das Medium aus der Maschine. Zur Metamorphose des Computers. Frankfurt/M.: Campus

Schlese, M., 1995: Software als "Medium der Kommunikaton": Zur Rolle von Leitvorstellungen bei der Konstruktion eines wissensbasierten Systems; in: W. Rammert (Hg.): Soziologie und künstliche Intelligenz. Frankfurt/M: Campus, 359-91

Schulz-Schaeffer, I. 1993: Das Forschungsfeld "Verteilte Künstliche Intelligenz". Ein Literaturbericht (Mskpt.), Hamburg-Harburg

Searle, J.A., 1986: Geist, Hirn und Wissenschaft. Frankfurt/M.: Suhrkamp

Shoham, Y., 1993: Agent-oriented Programming; in: Artificial Intelligence, 60, 51-92

Star, S.L./Griesemer, J.R., 1989: Institutional Ecology: "Translations" and Coherence: Amateurs and Professionals in Berkeley's Museum of Vertebrate Zoology, 1907-1939; in: Social Studies of Scence, vol. 19, 387-420

Steeb, R./Cammarata, S./ Hayes-Roth, F./ Thorndyke, P./ Wesson, R., 1988: Architectures for Distributed Air-Traffic Control; in: A. Bond/L. Gasser (eds)...90-101

Strübing, J., i.d.Bd.: Verteilte künstliche Intelligenz als "Going Concern". Aspekte der VKI-Debatte aus interaktionistischer Perspektive

Sundermeyer, K., 1993: Modellierung von Agentensystemen; in: Müller a.a.O.

Turkle, S., 1984: Die Wunschmaschine. Vom Entstehen der Computerkultur. Reinbek: Rowohlt

Turkle, S., 1995: Life on the Screen. Identity in the Age of Internet. New York: Simon&Schuster

Vollst, A., i.d.B.:

Wagner, G., 1997: Programmierte Medizin: Die soziale Konstruktion des Computers in der Intensivmedizin. Opladen: Westdeutscher Verlag

Wehner, J., 1994: Expertensysteme und die Organisierung von Expertenarbeit; in: B. Becker u.a. (Hg.): Veränderungen der Wissensproduktion und -verteilung durch Expertensysteme: Die Arbeit von Experten und die Technik ihrer Zukunft. Arbeitspapiere der GMD 818, Bonn, 23-48

Werner, E., 1989: Cooperating Agents: A Unified Theory of Communication and Social Structure; in: M. Huhns/L. Gasser (eds)...3-26

Wolf, J., 1994: Die Diskontinuität zwischen der Entdeckung des Penicillins und der medizintechnischen Revolution der Antibiotika; in: Technik und Gesellschaft. Jahrbuch 7, Frankfurt/M: Campus, 149-86

Wolfe, A., 1991: Mind, Self, Society, and Computer: Artificial Intelligence and the Sociology of Mind; in: American Journal of Sociology, vol. 96, no. 5, 1073-96

Wolfe, A., 1993: The Human Difference: On Computer, Animals and Social Action

Woolgar, S., 1985: Why not a Sociology of Machines? The Case of Sociology and Artificial Intelligence; in: Sociology, 14, 4: 557-72

Wrong, D., 1961: The Oversocialized Conception of Man in Modern Sociology; in: American Journal of Sociology, vol. 26, 183-93

Wynne, B., 1988: Unruly Technology: Practical Rules, Impractical Discourses and Public Understanding; in: Social Studies of Science, vol. 18, 147-67

Zilsel, E., 1976: Die sozialen Ursprünge der neuzeitlichen Wissenschaft. Frankfurt/M.: Suhrkamp