Computerunterstütze Vergesellschaftung - Socialware
In: Hrsg.: Jäckel, Michael; Mai, Manfred: Online-Vergesellschaftung?
Mediensoziologische Perspektiven auf neue Kommunikationstechnologien
2005. 224 S.Verlag für Sozialwissenschaften. 15 Seiten, Walhalla U. Praetori

www.SoziologischeBeratung.de

zurück

Andreas Schelske:

Vergesellschaftung in multimedialer Socialware


1. Multimediale Formen der Vergesellschaftung

Im Jahr 2004 nutzten ca. 10 Prozent der Weltbevölkerung einen Internetzugang. Im Jahr 2005 werden 800 Millionen Mobiltelefone weltweit verkauft. Der globale Handel beginnt damit, jede gehandelte Ware mit RFID-Sendern (Radio Fre-quency Identification-Transponder) auszustatten. Internet-Applikationen wie z.B. www.friendster.com bringen Personen automatisch in einen kommunikativen Erstkontakt. Alle Beispiele deuten an, wie rasch die Informationstechnik fast alle Alltagswelten verändert. In der Folge begleitet die technische Evolution eine Evolution des Sozialen. Beide Evolutionen gehen auf zwei qualitative Sprünge in der computergesteuerten Informationstechnik zurück:

Vernetzung:
Informationstechnik vernetzt sowohl alle Individuen kommunikativ als auch alle Dinge funktional untereinander.

Computerverarbeitbare Algorithmen:
Automatisierte Handlungsanweisungen (Algorithmen ) für Computer beeinflussen die Informationstechnik und Formen der sozialen Vernetzung. (1)

(1.) Ein Algorithmus enthält eine endliche Anzahl von Handlungsvorschriften, um ein Problem zu lösen. Algorithmen sind nicht an Computer gebunden. Koch-, Reparatur- und Bedienungsanleitungen werden ebenfalls als Handlungsvorschriften und damit als Algorithmen aufgefasst. Mathematiker versuchen für jedes Problem, ein Verfahren zu finden, mit dem sich quasi jedes Objekt berechnen und konstruieren lässt. Haben Mathematiker ein Algorithmus gefunden, der einen Computer in die Lage versetzt, ein Problem zu lösen, ist es ein computerverarbeitbarer Algorithmus. Nicht berechen-bare Handlungsvorschriften können von Computern nicht verarbeitet werden.)

Zweifelsohne stehen Gesellschaft und Technik in einem wechselseitigen Austauschverhältnis. Computertechnik kann die Gesellschaft nicht determinieren. Trotzdem tendiert die informationelle Netzwerkgesellschaft zu einer sozialen und technischen Entwicklung, in der die Vergesellschaftung von Individuen stärker von computergesteuerten Informationstechniken beeinflusst wird als je zuvor. Wenn Gesellschaft sich aus der Summe seiner sozialen Wechselwirkungen ergibt, wie Simmel (vgl. 1992, 23) es klassisch formulierte, dann beschleunigen die algorithmischen Geräte die Produktion von immer mehr Gesellschaft – ließe sich denken (vgl. Simmel 1992, 23). Doch diese Beschreibung überzieht ihre Darstellungskraft. Vielmehr scheinen zwei Fragen der gegenwärtigen Entwicklung eher gerecht zu werden: Wie unterstützen computergesteuerte Informationstechniken die Vergesellschaftung in sozialen Beziehungsformen bzw. sozialen Wechselwirkungen? Was trägt Simmels Theorie über die Formen der Vergesellschaftung dazu bei, die Informationstechnik als computergesteuerte Gestaltung der Sozialität sowie im „Social Design“ zu analysieren. Am Beispiel von „Macht“ und „Vertrauen“ legt der folgende Text dar, wie Computerprogramme diese Formen der Vergesellschaftung umformen bzw. nach ihrem Algorithmus, d.h. ihrer Handlungsanweisung, inszenieren. So stellt sich beispielsweise die Frage, um welche Formen der Vergesellschaftung es sich handelt, wenn ein Online Messenger ( www.icq.com) simulierte Aufmerksamkeit mittels bildhafter Stellvertreter (Avatare) vermittelt oder „social networks“ interpassive Freundschaftspflege automatisieren (z.B.: www.orkut.com, www.linkedin.com).


1.1. Wie ist eine Netzwerkgesellschaft möglich?

„Wie ist Gesellschaft möglich?“ (1992, 42) fragte Simmel im Jahre 1908 in seinen Untersuchungen über die Formen der Vergesellschaftung. Seine Antwort lautete. Gesellschaft solle erstens die Summe der Beziehungsformen sein, vermöge derer sich Individuen als Gesellschaft organisieren. Und zweitens solle sich Gesellschaft aus der aktualisierten Formation der jeweiligen Individuen zusammensetzen, die in den historischen Zeitspannen leben (vgl. Simmel 1992, 23). Würde man sich alle Wechselwirkungen zwischen Individuen wegdenken, so folgert Simmel, so bliebe keine Gesellschaft mehr übrig. So liegt es für Simmel nahe, die Gesellschaft als die Gesamtheit der Wechselwirkungen zwischen Individuen zu begreifen. Auf die Frage, wie Gesellschaft möglich sei, antwortet Simmel, dass es die Wechselwirkungen zwischen Individuen sind, die eine Gesellschaft verwirklichen (vgl. Simmel 1890, 5 u. 130f). Gemäß seiner Beschreibungsformen assoziiert er emotional sensibel vielschichtige Wechselwirkungen, auf die eine Gesellschaft aufbaut. Simpler, funktionaler, unemotionaler, doch mit vergleichbarer Intention wie Simmel formuliert Niklas Luhmann, dass Kommunikationen die sozialen Systeme, d.h. Gesellschaft, konstituieren (vgl. Luhmann 1984, S.191 ff.). Kommunikationen im weitesten Sinne bilden für ihn die Grundlage jeder Gesellschaft. Ebenso basiert für ihn die Netzwerkgesellschaft auf Kommunikation, doch lässt sich die Frage nach ihrer Grundlage folgendermaßen spezifizieren. Wie ist eine Netzwerkgesellschaft technisch und sozial möglich? Diese Spezifikation impliziert, dass die Beziehungsformen zwischen Individuen von computergesteuerter Informationstechnik zumindest dort beeinflusst sind, wo sie von ihr vermittelt sind.

Nach Simmel und Luhmann existiert auch die Netzwerkgesellschaft selbstredend nicht statisch. Dynamik und Wandel der Gesellschaft sehen sie ursächlich als Folge der Wechselwirkungen, die Individuen im Prozess der Vergesellschaftung einbringen (vgl. Simmel 1890, 5). Gesellschaft existiert nicht als eine, die einmal aufgebaut für alle Zeiten Bestand hat. Diese Reproduktion leisten die sozialen Wechselwirkungen fortwährend mit dem Unterschied, dass sich in der Netzwerkgesellschaft die computergesteuerte Informationstechnik an sozialen Wechselwirkungen nochmals stärker beteiligt als beispielsweise beim Telefon. Informationstechniken inszenieren, beeinflussen und vermitteln die Vergesellschaftung in ganz unterschiedlicher Weise. Dabei verändern sie menschliches Handeln gegenüber gegenständlicher Welt ebenso wie das „soziale Handeln“ zwischen Menschen. Metaphorisch formuliert Steinmaurer den Einfluss der Informationstechnik dahingehend, „dass es immer unwahrscheinlicher wird, in der Gesellschaft, aber außerhalb der Medien [und Informationstechnik] zu leben“ (Steinmaurer 2003, 108). Insbesondere die Begriffe der Medien-, Informations- und Wissensgesellschaft verweisen darauf, dass wir uns mehr und mehr mittels der Informationstechnik als Gesellschaft bzw. als Weltgesellschaft vergesellschaften. Doch wie funktioniert ein Vergesellschaftungs-Gerät, das eine Netzwerkgesellschaft hervorbringt? Wie gewährleistet sein Design die sozialen Beziehungsformen?


1.2. Erfand Vannevar Bush ein „Vergesellschaftungs-Gerät“?

Das Internet besteht nicht aus sozialen Wechselwirkungen. Der Begriff „Internet“ beschreibt Computer, deren Datenverbindungen vernetzt wurden. Selbst wenn die Gesellschaft plötzlich ausgestorben wäre, würde das Internet gewissermaßen weiter vorhanden sein. In der vernetzten Informationstechnik lebt keine Gesellschaft, kein Individuum. Die aus Kinofilmen bekannte „Matrix“ einer Computerstruktur, in der Individuen sich als lebend verstehen, ist eben eine Fiktion. Soziale Wechselwirkungen als Formen der Vergesellschaftung erfordern die Kommunikation von Zeichen. Die informationstechnischen Strukturen von Datenverarbeitungsanlagen, Rechengeräten, Computern und sonstigen Geräten vermitteln Signale, die mechanisch, optisch, elektrisch oder anders physikalisch miteinander verkoppelt sind. Es ist nicht das Internet selbst, das menschliche Kommunikation vernetzt. Vielmehr sind es sinnorientiert gesetzte Marker (Zeichen) in Form eines Hypertextes, der Texte infolge menschlicher Assoziationen mit anderen Texten verbindet, d.h. verlinkt.

Vannevar Bush, As we may think. In: Atlantic Monthly 176, S. 101-108

 

Vannevar Bush formulierte im Juli 1945, wie ein Gerät gebaut sein müsste, um menschliche Kommunikation zu vernetzen. In seinem Artikel „As We May Think“ nannte er das Gerät „Memex“. Nach dem damaligen Stand der Technik sollte Memex unterschiedlichste Dokumente fotografieren, speichern und untereinander mittels Markierungen vernetzen. Memex sollte zu Texten zweiter Ordnung befähigt sein, die mittels Hyperlinks unterschiedliche Dokumente in Beziehungen setzen. Die Verknüpfung selbst sollte Memex jedoch nicht selbstständig setzen, sondern Individuen kraft ihrer Assoziationen. Dem Individuum sollte es mit dem Vernetzungsgerät ermöglicht werden, all seine Bücher sowie seine schriftliche und bildhafte Kommunikation aufzuzeichnen und assoziativ untereinander mit Hyperlinks (Texten zweiter Ordnung) zu verbinden. Mit Memex erhielt die heutige Wissensgesellschaft die assoziative Vernetzungsstruktur, die Individuen im Internet als Hypermediasysteme schätzen gelernt haben. Vor diesem Hintergrund der von Menschenhand gesetzten Links, die die Individuen assoziativ verbindet, möchte ich davon sprechen, dass es mit dem Memex-Gerät begann, Individuen mittels eines computergesteuerten Hypermediasystems in soziale Wechselwirkungen zu bringen. Das Soziale im Internet ist daher nicht die Computervernetzung, sondern es folgt aus den assoziativen Hyperlinks, die für soziale Wechselwirkungen zwischen Individuen sorgen. Das Memex-Gerät erfüllte eine wichtige Voraussetzung eines Vergesellschaftungs-Geräts. Es konnte Zeichen sinnorientiert und vernetzt archivieren, wodurch die Vermittlung von vergesellschaftetem Wissen wahrscheinlicher wurde. Zudem brachte es neben Texten auch Individuen in soziale Wechselwirkungen, so denn die Links von der assoziativen Kraft der Individuen begleitet sind.


1.3. Socialware

Ohne explizites Design der Vergesellschaftungs-Formen verwirklichen sich für Anwender eher unerwartet soziale Beziehungen in Hypermediasystemen. Unerwarteten Erfolg hatten beispielsweise E-Mail und SMS. Welchen spezifischen Formen unterliegt die computerunterstützte Vergesellschaftung, wenn für multimediale Systeme nach McLuhan gilt, der Inhalt eines jeden Mediums ist ein anderes Medium. Die Vergesellschaftungs-Formen eines Mediums sind generell von dessen Formbarkeit abhängig: Im Hypermedium eines audiovisuellen Chatrooms müssen sich beispielsweise Töne und Bilder dialogisch gestalten lassen. Soll der audiovisuelle Dialog wiederum selbst ein Medium sein, dann müssen sich Vertrauen erwecken oder Macht als Formen der Vergesellschaftung umsetzen lassen. Ohne Vertrauen in die Informationstechnik würde beispielsweise kaum jemand seine Texte auf digitale Datenträger archivieren wollen. Das Medium der Hypermediasysteme lässt sehr viele Formen der Vergesellschaftung zu, die an Zeichen gebunden sind.


Gegenwärtig werden vernetzte Hypermediasysteme für soziale Kommunikationsformen entwickelt, die kraft ihres Interfaces umdefinieren, wie Vertrauen, Verantwortung, Glaubwürdigkeit, Macht, Liebe, Emotionen, Werte, Gewalt, Rollen, Gruppen, Community etc. sich entwickeln. Die Formen der Vergesellschaftung – wie sie Simmel ansprach, wandeln sich in Hypermediasystemen zu sozialen Wechselwirkungen, wie sie die Technik selbst erlaubt. All diese informationstechnisch katalysierten Formen der sozialen Wechselwirkungen bezeichnen Funakoshi und Hattori mit dem Begriff Socialware (vgl. Funakoshi 2001; Hattori 1998). Socialware verdeutlicht, was die Hypermediasysteme in der Sozialbeziehung der Individuen erzwingen und ermöglichen.
Provokativ gefragt: Benötigt die Soziologie ein Konzept von Socialware, um die computerunterstützte Koordination von Personen als Sozialität zu gestalten? Diese Frage möchte ich weniger aus einer Perspektive beantworten, die die „Gestaltung sozialverträglicher Computersysteme“ (Rolf 1995, 6) als ein Bemühen verstand, das sich den sozialen Prozessen angleichen wollte. Weniger die Angleichung ist heutzutage vorzufinden, sondern oftmals werden mittels Hypermediasystemen die sozialen Prozesse selbst(-bewusst) gestaltet, formalisiert und automatisiert. Der Unterschied zwischen Sozialverträglichkeit und einer Gestaltung der Vergesellschaftung selbst ist nicht neu, sondern nuanciert stärker die motivationalen Pole softwaretechnischer Gestaltung (vgl. Rolf 1995, 11). So polarisiert lautet meine Frage einerseits: Was leistet die Gestaltung und Formalisierung von Socialware? Andererseits impliziert diese Frage ihre Umkehrung: Wie fungiert Software als Social Design computerunterstützter Sozialität (Socialware)?


Der Begriff der „Socialware“ skizziert in Anlehnung an Funakoshi, dass die Formen der Vergesellschaftung von der Vernetzung in Hypermediasystemen geprägt werden (vgl. Funakoshi 2001; Hattori 1998). Socialware in multimedialen Computernetzen meint die sozialen Aktivitäten und sozial motivierten Voraussetzungen, die Individuen in und durch vernetzte Hypermediasysteme realisieren. Socialware kennzeichnet somit die Formen der Vergesellschaftung, die mittels vernetzter Hypermediasysteme initiiert werden. Socialware meint nicht Konzepte – wie z.B. „Social Navigation“ (Höök 2003) – die Spuren von Anwendermassen visualisieren, aber selten soziale Beziehungen zwischen Anwendern herstellen. Im Vordergrund der Socialware stehen Formen der Kommunikation, die soziale Koordination, Zusammenarbeit, soziale Unterstützung und Communities verwirklichen. Dazu gehören ebenfalls die kommunikationsverändernden Einflüsse von z.B. Erwartungen, Emotionen, Lebensweltkonstruktionen, Pragmatik der Zeichen sowie der Kultur. Die Automatisierung des Sozialen, wie z.B. in Empfangsbestätigungen einer Mail oder die automatische Kommunikation von Anwesenheit im www.ICQ.com („I Seek You“), markiert, wo Randbereiche der Vergesellschaftung von informationstechnischen Algorithmen gesteuert werden.


„Socialware“ berührt Forschungsbereiche, die z.B. in Computer Supported Social Networks (CSSNs), Computer Supported Cooperative Work (CSCW) oder Computer Supported Cooperative Learning (CSCL) untersucht werden. Aus soziologischer Perspektive müssen die Theoreme von computerunterstützter Kooperation verändert werden, um zu Konzepten zu kommen, die die sozialen Veränderungen der „informationellen Gesellschaften“ und „sozialen Netzwerke“ infolge der computervermittelten Kommunikation umsetzen helfen (vgl. Castells 2003, 22). Wenn Wellman beschreibt, dass Computernetze soziale Netze unter-stützen, so ist menschliche Kommunikation trotzdem nicht mit Metaphern des vernetzten Datenaustausches zu beschreiben (vgl. Wellman 1998). Ebenfalls neigen Anleihen an soziologische Begriffe, wie „Rolle“ oder „Gemeinschaft“, dazu, dass zwar das Soziale, z.B. im Wissensmanagement oder kollaborativen Lernen, formuliert und in Beiträgen (vgl. z.B. Herrmann 2003) berücksichtigt wird. Doch jene traditionsreichen Fachtermini für einfache Sozialsysteme können selten der sich verändernden informationellen Sozialität gerecht werden, die sich gegenwärtig infolge vernetzter Hypermediasysteme vollzieht. Nach empirischen Erhebungen in Email-Foren stellt Stegbauer berechtigt fest, dass allenfalls Grundmuster der Gemeinschaft, Gruppensoziologie bzw. der Großgruppensoziologie noch adäquate Beschreibungen bieten (vgl. Stegbauer 2001, 92).


Beispielsweise folgen der computervermittelten Kommunikation in Weblogs („öffentliche Tagebücher“) und Smart Mobs soziale Infrastrukturen, denen hohe Verbreitungsgrade zukommen. Schätzungen gehen von 3 Millionen Weblogs im Internet aus. Den Erfolg der Softwarelösung begründet Rheingold damit, das z.B. dass Peer-to-Peer-Verfahren dafür sorgt, Interaktivität zwischen Individuen abseits von ökonomischer und juristischer Macht zu erzeugen (vgl. Rheingold 2002). Solche Bottom-up-Technologien, die ökonomischen Basisinteressen der Anwender entgegen kommen, betonen den hohen Adaptionsgrad der eingesetzten Software. Ein entgegengesetztes Erklärungsmodell verdeutlicht die soziologische Perspektive, die analysiert, weshalb innerhalb der Lebensweltorientierungen von Individuen manche Applikationen stärker motivierend empfunden werden als andere. Die zu begründende These lautet deshalb: Computerunterstütze Sozialität (Socialware) beinhaltet eine soziale Dynamik, mit der Softwarelösungen in Computernetzen erfolgreich werden. Umgekehrt geben Computersysteme den Personen vor, innerhalb welcher technischen Restriktionen sie miteinander kommunizieren sollen bzw. wollen. Insofern gestalten Softwarelösungen ebenfalls Formen der Kommunikation und der Vergesellschaftung. Diese Gestaltungskraft charakterisiert der Begriff „Social Design“. Social Design bezieht sich sowohl auf technologische Charakteristika des Computersystems als auch auf die sozialen Kontexte in denen es genutzt wird (vgl. Kling 1987). Im Social Design können Softwarelösungen eine Richtung nehmen, die die Gestaltung von computerunterstützter Sozialität als „Reduktion von [sozialer] Komplexität“ (Luhmann 1987, 67) konzeptualisiert. Ich werde diesen Punkt der funktionalen Gestaltung von Software zur Verminderung eines sozialen Möglichkeitsüberschusses ausführen. Zumindest waren in Computernetzen oftmals Applikationen erfolgreich, die soziale Komplexität auf grundlegende Interessenlagen der Anwender reduzierten und dadurch deren Lebenswelt „vereinfachten“. Folgendes Beispiel der Email skizziert einleitend, was gemeint ist, wenn Computersysteme soziale Interessenlagen der Anwender schematisieren.


1.4. Beispiel: Email als Socialware

Beispielsweise hat die Anwendung „Email“ im Kern nicht nur deshalb einen hohen Verbreitungsgrad, weil ihre Technik einfach ist, sondern weil sie als soziotechnisches System den funktionalen Kommunikationsbedürfnissen der Anwender nachkommt. Mit der Perfektionierung der Email-Anwendung reagierte Ray Tomlinson im Jahr 1971 darauf, dass elektronische Nachrichten nicht nur zwischen zwei Computern auszutauschen sind, sondern plattformübergreifend auf unterschiedlichen Rechnern im Netzwerk geschrieben und empfangen werden können. Diese Idee bot einen funktionalen Vorteil gegenüber den bisherigen elektronischen Nachrichten, da jetzt jeder Absender jeden Rechner im Netzwerk für personalisierte Nachrichten verwenden konnte. Mitunter wird der Erfolg der Anwendung „Email“ darauf zurückgeführt, dass mit ihr orts- und netzwerkunabhängig kommuniziert werden kann und sie deshalb als besonders schnelles Medium gilt. Zweifelsohne ist das Medium „Email“ technisch gesehen sehr schnell, doch ihre gesellschaftliche Durchsetzungskraft beruht nicht nur auf der Geschwindigkeit der Datenübermittlung.


Der massenhafte Einsatz der Email beruht auf der Entschleunigung sprachlicher Kommunikation (Telefon) und der Beschleunigung schriftlicher Kommunikation (Brief). Die sprachliche Kommunikation wird verlangsamt, d.h. entschleunigt, weil Email das verbale Selektionsniveau und die juristisch wirksame Erinnerungsfähigkeit gegenüber gesprochener Sprache steigert. Der Aufbau einer sozialen Beziehung, z.B. Vertrauen, dauert aufgrund der asynchronen Emailkommunikation indessen wesentlich länger als beispielsweise beim synchronen Telefonieren. Nach Stegbauer könnte man sogar behaupten: „Das Verschwinden des Raumes steht in einem konkreten Verhältnis zur Dehnung der Zeit, die für das Abhandeln von Problemen in der Gruppe benötigt wird“ (Stegbauer 2001, 47). Neben der Ortsunabhängigkeit begründet sich der Verbreitungsgrad der Anwendung „Email“ auch in einer neuen Form der Vergesellschaftung, nämlich Socialware, durch deren Einsatz beispielsweise Macht und Vertrauen jetzt multimedial in neuer Struktur vermittelt werden. Beispielsweise organisieren sowohl NGOs als auch Ortsvereine der Partein ihre Macht global in den Hypermedien und selbstverständlich per Email.

Weiterhin trägt ebenfalls die Entkörperlichung computervermittelter Kommunikation dazu bei, dass sich Akteure von sozialindizierenden Risiken der synchronen Face-to-Face-Kommunikation entlastet fühlen können. Zu dieser Reduktion sozialen Möglichkeitsüberschusses (Komplexität) durch Entschleunigung und der Konzentration auf rein schriftlich fixierte Inhalte durch „Email“ kommen zweifelsohne weitere Faktoren. Dazu gehört beispielsweise die Kompensation von Macht, indem sich z.B. Newsgroups und Mailinglisten eigene Quellen der Gewissheiten konstruieren, die abseits professionell genutzter Massenmedien liegen.


2. Social Design als Reduktion von Komplexität?

Das Verhältnis von „Gesellschaft und Informatik“ konnte 1995 noch in einer Perspektive beschrieben werden, die die Computertechnik hinsichtlich ihrer Einsatzbereiche ordnete. Dazu gehörten beispielsweise Logistik, Verwaltung, Kontrollsysteme, Informationssysteme sowie die Automatisierung von Produktionsstrukturen usw. Die Gestaltung der Computertechnologie sollte den Maßgaben einer Zweck-Mittel-Optimierung unterliegen. Berger beschrieb dies wie folgt:

„Technische Entwicklung lässt sich somit beschreiben als historisch-gesellschaftliches Projekt der Zweck-Mittel-Optimierung, in dem soziale Akteure entsprechend ihrer jeweiligen gesellschaftlichen Rationalität Zwecksetzungen entwickeln und zu deren Realisation spezifische technische Mittel hervorbringen, ihre Zwecke also in ihren Mitteln vergegenständlichen“ (Berger, P. 1995, 27).

Die gesellschaftliche Zweck-Mittel-Optimierung möchte ich als normativ gemeinte Orientierung verwenden, die in informationellen Netzwerkgesellschaften selbst kontingent (zufällig) geworden ist. Diese Kontingenz (Zufälligkeit) verweist darauf, dass gesellschaftliche Rationalität je nach sozialem Teilsystem anders möglich sein kann, je nach dem, wie die Norm es vorsieht. Soziale Systeme entwickeln deshalb ihre eigenen Zweck-Mittel-Optimierungen ohne die Gewissheit von sicherem Wissen. „Selbst die Naturwissenschaften, selbst die Physik sehen heute keine Möglichkeit mehr, der Gesellschaft Grundlagen für Rationalitätsurteile in der Form von sicherem Wissen zur Verfügung zu stellen (Luhmann 1997, 176). Rationalität muss mit Luhmann als eine Option der sozialen Systeme aufgefasst werden. Sie erweitert einerseits die kommunikativen Normen, andererseits führt sie zu Verunsicherungen hinsichtlich der Gültigkeit von Normen – also auch der Gültigkeit von gesellschaftlicher Rationalität. Diese Zunahme an Kontingenz in den sozialen Teilsystemen birgt zunehmend die Gefahr von Dissensrisiken in den Lebenswelten selbst (vgl. Giegel 1992, 8; Bonacker 1997, 21).


Je größer das Dissensrisiko als Folge der Kontingenzsteigerung in der modernen Gesellschaft, desto stärker das Streben nach Konsens. Genau an dieser Schnittstelle setzt Social Design in multimedialen Systemen ein. Social Design versucht beispielsweise, das Dissensrisiko in der Alltagswelt zu mindern, indem es die „Information Richness“ in der Kommunikation einschränkt, z.B. durch Entschleunigung, automatische Antworten, automatisierte Aufmerksamkeit, soziale Stellvertreter (Avatare), Vertrauens- und Beliebtheitsrankings etc. Gleichwohl sind Dissensrisiken unvermeidbar. Die gegenwärtige Technikkonstruktion legt Wert darauf, den Möglichkeitsüberschuss von Sozialität so zu gestalten, dass Dissens in multimedialer Kommunikation weniger häufig auftritt. Wie reduziert Technikgestaltung den Möglichkeitsüberschuss von Dissens bzw. wie schafft sie es, Konsens als Socialware zu organisieren? Diese Frage erläutern die folgenden Beispiele im Hinblick auf „Macht“ und „Vertrauen“.


2.1. Social Design von Macht

Die Gestaltung von Macht in Computersystemen gehört zu sensiblen Strategien, die ohne ethische Werte orientierungslos praktiziert wird. Die politische Verrechtlichung des Internet steht am Anfang. Die „meisten regulatorischen Mechanismen für das Internet [basieren] weniger auf formellen Gesetzen, sondern vielmehr auf Prinzipien der „Selbst-Regulierung“ von Betroffenen und Beteiligten“ (Kleinwächter 2004, 103). Beispielsweise werden Accounts in virtuellen Kommunikationsforen gelöscht, sobald Anwender aufgrund ihrer Ausdrucksweise den „Konsens“ der Netiquette (Moral) verlassen. Die Sanktionierbarkeit von computervermittelter Kommunikation ist in vielen virtuellen Foren (Chats) und Mailinglisten möglich. Dort erhalten Moderatoren die technisch umsetzbare Gewalt, Diskussionsteilnehmer aus den Foren zu eliminieren. In solchen Applikationen wird Macht technologisch konstruiert, sobald Dissensrisiken in computerunterstützter Vergesellschaftung unkompliziert eliminiert werden sollen. Die oben genannten Beispiele gehören zu einfacheren Applikationen, die gesellschaftlichen Dissens unterdrücken, indem sie ihre technisch durchsetzbare Macht durch Selbst-Regulierung ausüben. Aber auch die technisch gestützte Ausübung von Macht folgt der klassischen Definition: „Macht bedeutet jede Chance, innerhalb einer sozialen Beziehung den eigenen Willen auch gegen Widerstreben durchzusetzen, gleichviel worauf diese Chance beruht" (Max Weber 1972, 28).


Aus Macht folgt nicht notwendigerweise Herrschaft, die den Gehorsam jeweiliger Anwender nach sich zieht. Trotz Sanktionen erlaubt die technische Struktur des Internet, sich vielerlei Herrschaftsinteressen zu entziehen. Die automatisierte Ausübung der Macht als Kontrolle findet nicht im Internet statt, sondern wird auf der Ebene der Hypermediasysteme gestaltet (siehe V. Bush - Memex). Beispielsweise werden unerwünschte Wörter aus dem Eingabestrom ausgelesen, den Anwender im Dialogfenster eines Chat-Channels eintippen. Enthält der Eingabestrom unerwünschte Wörter, die einer syntaktisch organisierten Liste entsprechen, werden weitere Schritte der Software möglich. Die Sanktionspraxis von Flirt-Channels sieht bei Verstößen gegen die syntaktisch geprüfte Norm vor, Anwender aus der Kommunikation auszuschließen (vgl. Döring 2000, 337). Formen der Macht, die auf syntaktische Kontrolle beruhen, werden von Anwendern leicht umgangen.


Schwerwiegender wirkt sich die Verbannung von Chat-Channels aus, sobald Anwender aufgrund ihrer Herkunftsdomain (hostmask) abgewiesen werden. Diese Technik verwendet mitunter auch die Politik. So war die offizielle Wahlkampfseite von George W. Bush in den letzten Wochen des Wahlkampfs für Ausländer unzugänglich. (vgl. www.telepolis.de Ernst Corinth 27.10.2004) Diese Beispiele technologisch durchgesetzter Kontrolle zeigen, wie Dissensrisiken der Anwender eliminiert werden, sobald Macht automatisch ausgeübt wird. Bisher hat die technische Umsetzung von Macht in virtuellen Sozialgefügen wenig Durchsetzungskraft, weil virtuelle Identitäten in Form von „gefälschten“ Email-Adressen und Herkunftsdomains so lange zügig gewechselt werden, wie sie ohne erhebliche Kosten kreierbar sind. Aus diesem Grund fällt die Kontrolle unterschiedlicher Rechtverstöße im Internet den jeweiligen staatlichen Organisationen so schwer.


Das Prinzip von Hypertext und Vernetzung wendet sich gegen die Vorstellung von Deleuze, dass Individuen, wie auf einer Autobahn, perfekt kontrollierbar wären, wenn sie sich im Freiheitsgefühl selbstbestimmter Geschwindigkeit alle in eine einzige Richtung bewegen (Deleuze 1998, 62). Die Metapher der Datenautobahn beschreibt nichts von dem, was vernetzte Hypermediasysteme sind und wie sie technische Kontrolle zumindest hemmen. In diesem Punkt erkennt Gansing (2003, 45) zutreffend, dass multidimensionale Richtungen von Interaktivität sowie Kommunikation in Hypermedien nicht automatisch kontrollierbar sind. Macht kristallisiert sich nicht an den informationstechnischen Vermittlungsknoten, sondern in der Verwaltung von vergesellschafteten Hyperlinks, wie z.B. bei Suchmaschinen, Portalen und anderen vergesellschafteten Knotenpunkten. Die technischen Sachzwänge der Chip- und Netzarchitektur würden überschätzt werden, wenn sie als Mittel der Machtentfaltung fungieren sollten (vgl. Bühl 2000, 312). Macht in Hypermedien greift dort, wo ihre Formen vergesellschaftet sind. Ohne vergesellschaftete Formen erlangt die Informationstechnik keine Macht. Macht organisiert die Netzwerkgesellschaft innerhalb ihrer Sozialität – Vergesellschaftungs-Geräte sind ihr dabei behilflich.


Anders als hinsichtlich automatischer Kontrolle und Machtausübung sieht es in der Durchsetzung von Machtinteressen beispielsweise in Onlinerollenspielen aus, wie z.B. Ultima Online (www.ultimaonline.org). In Onlinerollenspielen dauert es mitunter sehr lange, um seine Identität (d.h. den Charakter) mit dem richtigen Potenzial an kommunikativer Anknüpfbarkeit zu versorgen. Haben Akteure ihren Charakter ausgebildet, sind sie zweifelsohne kaum gewillt, diese Identität zu verlieren. Je zeitintensiver Individuen sich daher zurechenbare Identität in multimedialen Systemen aufbauen, umso stärker sind sie den Chancen der Macht ausgeliefert. Zeit als irreversible Ressource ist daher in multimedialen Systemen als ein besonders effektiver Faktor, Macht in partielle Herrschaft über Individuen umzusetzen. Aus diesem Grund setzen beispielsweise die Channel-Operatoren ihre Macht effektiv durch, sobald sie mit der Verbannung einer virtuellen Identität drohen, deren Aufbau sehr zeitintensiv war. Social Design von Macht in vernetzten Hypermedia-Systemen beruht nach wie vor auf soziokulturellen Strukturen, die als Socialware technisch unterstützt, aber nicht kontrolliert werden können.


Studieren lassen sich Machtstrukturen in abenteuerorientierten Onlinerollenspielen, in denen Gilden und Bünde eine Kultur „zwischen Selbstverwaltung und Selbstjustiz“ (Lischka 2002, 114) etabliert haben. Zwar hat niemand die Funktionen der Gilden konkret geplant, doch haben sie ein Social Design für multimediale Systeme ausgebildet, wo Personen sich in einem komplexen Geflecht realer Vergesellschaftung organisieren. Macht dient in den Online-Gruppen dazu, soziale Komplexität durch legitime und illegitime Durchsetzungskraft zu reduzieren. In ethischer Perspektive kann die Gestaltung von computerunterstützter Sozialität auch eine Richtung einschlagen, Anwender in Prozesse multimedialer Vergesellschaftung zu involvieren. Solche ethischen Argumente wirken schwach gegenüber der informationstechnischen Stärke, mit der Dissens in multimedialer Kommunikation eliminiert wird.


2.2. Social Design von Vertrauen

Gegenüber der Gestaltung von Macht in Hypermediasystemen benötigt das Social Design von Vertrauen eine wesentlich sensiblere Umsetzung. Vertrauen durch Social Design lässt sich nicht erzwingen oder mit Macht und Herrschaft umsetzen. Auch die Kontrolle von Vertrauen sichert nicht dieses selbst, sondern erzeugt Misstrauen. Misstrauen wiederum provoziert den unerwünschten Effekt, dass sich der Informationsbedarf der Akteure als auch die Kosten des Informationsanbieters drastisch erhöhen (vgl. Luhmann 2000). Um Vertrauen als Socialware mittels multimedialer Systeme zu gestalten, sind demzufolge etliche soziologische Perspektiven zu beachten. Trotzdem wird das funktionale Motiv in sozialen Systemen deutlich: Vertrauen verfügt über das Potenzial, informationelle Risiken und soziale Komplexität zu kompensieren. Im Misstrauen steigt der Informationsbedarf und sinkt die Bereitschaft, unter riskant empfundenen Bedingungen in multimedialen Systemen zu handeln.


Vertrauen kann in Hypermediasystemen auf einer Gestaltung computerunterstützter Sozialität beruhen, die den Möglichkeitsüberschuss von Handlungssituationen minimiert. Wer misstraut, will viel wissen (Kontrolle), wer vertraut, benötigt wenig Informationen, um handeln zu können. Beispielsweise reduziert Vertrauen den Informationsbedarf bei der Bestellung eines Fernsehers im Internet. Das individuelle Risiko besteht neben anderen z.B. darin, den Fernseher bezahlt zu haben, ohne ihn testen zu können und Pixelfehler auf dem Bildschirm in Kauf zu nehmen. Im Social Design begegnet das Versandhaus dem Misstrauen der Akteure mit diversen Maßnahmen: Es kommuniziert, ob die Ware pünktlich versendet wurde, ob sie vorrätig ist und welche Bewertungen andere Kunden abgegeben haben etc. Der Versandhandel erweckt Vertrauen mittels computerunterstützter Sozialität, um potenzielle Besteller zum Handeln im Internet zu motivieren. Die Handlungsmotivation selbst resultiert daraus, dass Akteure ihr Bestellungsrisiko minimiert meinen, wenn sie Anzeichen für Vertrauen interpretieren können.


In semantischer Übertreibung ließe sich meinen, Social Design ist die Usability für soziale Systeme, um Dissensrisiken zu vermeiden. Doch soziale Systeme sind nicht stabil genug, eine effizienzorientierte Normierung von Vertrauen zu ermöglichen. Trotzdem versucht Araujo für den internetbasierten Handel einige Richtlinien zu entwickeln, um für Websites die Vertrauenswürdigkeit zu steigern. Araujo geht von unterschiedlichen vertrauenserweckenden Anzeichen aus.

There are several ways to build trust on a Web site:

  • Communicate a professional appearance
  • Match the company bricks-and-mortar image (if any), by giving the Web site a look similar to that found in the real store through the use of names, logos, colours, fonts, and so on.
  • Present information on the merchant: background, contact details, performance history, associations, values, accomplishments, pictures, and so forth.
  • Satisfy (or exceed) the visitors’ expectations about the site” (Araujo 2003, 10).

Die von Araujo benannten Komponenten behaupten, dass Vertrauen bei computerunterstützter Sozialität darauf angewiesen ist, zu verstehen, was Anwender an Information benötigen, um zu vertrauen. Jede Verunsicherung des Anwenders durch multimedial vermittelte Information, die ihn irritiert, mindert Vertrauen in eine Website. Solange Vertrauen mittels ausschließlicher Informationsvermittlung erreicht werden soll, reicht die Fehlerwahrscheinlichkeit der an das Sozialmilieu orientierten Information vermutlich aus, um Vertrauen zu erzielen. Diese Behauptung begründet sich dadurch, dass professionelles Aussehen eben an der Visualisierung von erfolgreichen Unternehmen orientiert ist. Ebenfalls ist Vertrauen aufgrund des „bricks-and-mortar image“ durch die Visualisierung begründet, die die Erfahrungen örtlicher Verkaufsräume als soziokulturelle Lebenswelt erinnern hilft. Insofern die Präsentation mit Geschäftshistorie, Kontaktdetails und Bildern ausschließlich visualisiert wird, kann noch davon ausgegangen werden, dass Vertrauen spontan anhand visueller Informationen möglich wird.

Informationen ohne eigenen, vernetzten Kontext bleiben darauf angewiesen, spontanes Vertrauen (swift trust) aus sich selbst heraus zu erwecken. Andere Kontrollmöglichkeiten als das Vorhandene existieren für spontanes Vertrauen nicht. Für spontanes Vertrauen muss angenommen werden, dass die visuellen Informationen auf dem Bildschirm es erwecken. Insofern neigt Vertrauen in multimediale Kommunikationsweisen dazu, mit dem vergleichbar zu sein, was im soziologischen Kontext für interpersonales Vertrauen angenommen werden kann. In ihrer Studie zum Interpersonal Trust wiesen Greenspann et. al. nach, dass synchrone Kommunikation per Telefon zügiger zu Vertrauensbildungen neigt als asynchrone Kommunikation per Email. Des Weiteren erweckten die Medien, die die menschliche Stimme übertrugen, zügiger interpersonales Vertrauen als diejenigen Medien, die ausschließlich visuell basierte Informationen anboten (vgl. Greenspann 2000, 251). Aufgrund dieser Studie ist anzunehmen: Je höher die Fehlerwahrscheinlichkeit interpersonaler Kommunikation innerhalb eines Kontextes (frames) ist, desto zügiger entwickelt sich interpersonales Vertrauen. Insofern verweist die Information Richness eines Mediums auf die Fehlerwahrscheinlichkeit, sozial indizierende Zeichen nicht kontextadäquat zu setzen. Je informationsreicher ein Medium etwas kommuniziert, desto wahrscheinlicher werden Fehler in den Kommunikationsformen. Solche fehlerhaften Kommunikationsformen gehen selbstverständlich an den soziokulturellen Formen der Kommunikation vorbei und erzeugen Misstrauen.

Die unterschiedlichen Formen visuell kontrollierten Vertrauens deuten daraufhin, dass das Social Design von Vertrauen in multimedialen Systemen nicht an der Gestaltung der bildhaften Benutzungsschnittstelle halt macht. Vielmehr wäre es ein konzeptioneller Fehler zu vermuten, Vertrauen ließe sich in multimedialen Systemen rein visuell gestalten bzw. kontrollieren. So wenig wie die Visualisierung von Macht die Macht selbst stabilisiert, genauso wenig kann Vertrauen durch Visualisierungen von Vertrauen stabilisiert werden. Visuell basiertes Vertrauen im optisch erfahrbaren Design ist zu flüchtig, zu anfällig hinsichtlich Fehlern in multimedialer Gestaltung, um nachhaltige Stabilität zu erwirken. Diese Anfälligkeit des Vertrauens gegenüber stilunsicheren bzw. lebensweltentfernten Gestaltungsmerkmalen begründet sich mit der Emotionalität spontaner Interpretation. Bereits das 18. Jahrhundert entdeckte, „dass der Geschmack schneller urteilen kann als die Vernunft, weil er seine Kriterien individualisiert und durch Selbstbeobachtung legitimieren kann“ (Luhmann 1987, 76). Das 21. Jahrhundert setzt Emotionen ein, um Anwender an den Benutzungsschnittstellen (Interface) zügig zu orientieren. Emotionen als Selbsterfahrung sollen steuern, wann Kommunikation als vertrauenswürdig oder misstrauenserweckend angenommen wird, sobald sie sich subjektiv als zugeneigt oder abgeneigt empfinden lässt. Befragungen verweisen am Beispiel von anthropomorphen Interface Agenten allerdings darauf, dass es unvorhersehbar bleibt, „welche (emotionalen) Reaktionen ein spezifisches Verhalten des Interface Agenten beim Nutzer auslösen wird“ (Krämer, Bente 2003, 294).


Vertrauen als Socialware mittels Mediendesign zu erzielen, steht aufgrund zu stark emotionaler Interpretationen auf nicht sehr tragfähigen Fundamenten. Das Social Design von Vertrauen in computervermittelter Kommunikation benötigt Vertrauenstypen, die unabhängig von jeweiligen Gestaltungsmerkmalen äußerst stabil fungieren. Vertrauen benötigt daher symbolische Zeichen etablierter Sozialkontexte. Beispielsweise kann Vertrauen als etablierte Socialware einer funktionierenden Gruppe bereits mittels einer SMS ermöglicht werden, obwohl die SMS über eine äußerst niedrige Information Richness verfügt. Dieses Beispiel verweist darauf, dass Vertrauen zum geringsten Teil eine Frage der Mediengestaltung ist, sondern eine der gesellschaftlichen Beziehungskontexte. Diese Beziehungskontexte, die Vertrauen als Socialware etablieren und im Social Design für computervermittelte Kommunikation zweifelsohne bereits verwendet werden, sind folgende:

1. Soziales Vertrauen: Funktionieren der Gruppe, die sich verbunden meint. (z.B. Mailinglisten, Newsgroups, Meinungsportale)
2. Vertrauen in soziale Kategorien: Stereotypen (z.B. Modem-, DSL-, Linux-Anwender)
3. Vertrauen in strukturale Rollen: Abhängigkeit von Rollen (z.B. Webmaster, Blogger)
4. Institutionelles Vertrauen: Institutionen (z.B. www.wikipedia.de, www.denic.de)
5. Prozedurales Vertrauen: Prozeduren (z.B. Netiquette, „Gilden“ in Onlinespielen)
6. Symbolvertrauen: symbolisierte Sozialstruktur (z.B. Trusted Shops, Vertrauensrankings)
7. Systemvertrauen: Sozialsystem (z.B. Staat) (vgl.: Sztompka 1999, 41f.; Schelske 2003, 184 f.)

Die hier skizzierten Formen des Vertrauens greifen insbesondere in Hypermediasystemen ineinander oder durchdringen sich wechselseitig. Jede Form des Vertrauens trägt zur Kompensation von Risiken bei. Das Social Design der Hypermediasysteme nutzt zwar vergesellschafte Vertrauensformen, doch etabliert es diese mit computerverarbeitbaren Algorithmen. Zu solchen Methoden gehören beispielsweise Rankings, die Individuen nach Aussehen, Anzahl der Freunde, Kaufverhalten, Verlinkung und Geschäftsverbindungen listen. Rankings werten ihre Teilnehmer auf. Je stärker Individuen technisch und sozial vernetzt scheinen, desto höher ist ihr bemessener Wert. Sozial vernetzte Individuen oder Institutionen ohne eine technische Vernetzung oder Auffindbarkeit in Hypermediasystemen laufen Gefahr, in diesen kein Vertrauen zu erwecken. Die Informationsgesellschaft setzt die informationstechnische Vernetzung für die multimedialen Formen der Vergesellschaftung voraus. Vertrauen lässt sich zwar in traditionellen Sozialkontexten etablieren, wird aber ohne die technische Vernetzung selten in Hypermediasystemen vermittelbar sein.


3. Konsequenzen multimedialer Vergesellschaftung

Wir vergesellschaften uns, weil wir in soziale Wechselwirkungen treten. Hypermediasysteme ermöglichen veränderte Formen der Vergesellschaftung. Neuerdings treten Individuen in soziale Wechselwirkungen, wenn sie von Algorithmen zusammengeführt werden. Sie vertrauen sich, wenn Rankings in Hypermediasystemen über sie Auskunft geben. Sie üben Macht aufeinander aus, wenn sie sich aufgrund technischer Kontrollmechanismen in Zugehörigkeiten zwingen oder aus den sozialen Wechselwirkungen eliminieren können. Die Formen der Vergesellschaftung änderten sich in den Hypermediasystemen drastisch. Keine Gesellschaft vorher erfand so viele Kommunikationstechniken, die quantitativ immer mehr Individuen in soziale Wechselwirkungen bringt und qualitativ den Informationsreichtum der sozialen Wechselwirkung drastisch reduziert.


Die synthetische Gestaltung der Gesellschaft zu Gruppen oder Verbänden war für Simmel alltäglich (vgl. Simmel 1992, 24). In Hypermediasystemen basieren jedoch Gruppen und sogenannte „Communities“ auf einer computerunterstützten Sozialität, die vorrangig reduzierte soziale Funktionen einzelner oder mehrere Akteure vorhält und nach Bedarf weltweit abfragbar hält. Im Zentrum der gegenwärtigen Gestaltung computerunterstützter Sozialität stehen gegenwärtig Kommunikation, Koordination, Zusammenarbeit (Kollaboration) und virtuelle Communities. Von allen vier Bereichen erwartet sich die Netzwerkgesellschaft eine Steigerung der Sozialität: Kommunikation steigert mittels „instant messaging“ simulierte Daueranwesenheit. Die Koordination sich verbunden fühlender Individuen erledigen korrespondierende Terminkalender. Kollaboratives Wissen erarbeiten Individuen in Weblogs und Wikis (www.wikipedia.de). Communities agieren als unüberblickbare Schwärme der Freundschaft, Arbeit, Liebe, des Konsums und sonstiger Interessen. Hinter all dieser Steigerung der Sozialität steht eine Gestaltung soziotechnischer Systeme, dessen Algorithmen es Individuen ermöglicht, sich global zu vergesellschaften.


4. Literaturverzeichnis

Araujo, I. (2003): Developing trust in internet commerce. In: Proceedings of the 2003 conference of the Centre for Advanced Studies conference on Collaborative research, Toronto, Ontario, Canada: IBM Press, S. 1 – 15.
Berger, P. (1995): Sozialgeschichte der Datenverarbeitung. siehe: Friedrich, J. (1995).
Bonacker T. (1997): Kommunikation zwischen Konsens und Konflikt, Möglichkeiten und Grenzen gesellschaftlicher Rationalität bei Jürgen Habermas und Niklas Luhmann. Oldenburg: Bibliotheks und Informationssystem der Univ.
Bühl, A. (2000): Die virtuelle Gesellschaft des 21 Jahrhunderts, Sozialer Wandel im digitalen Zeitalter, Wiesbaden: Westdeutscher Verlag
Bush, Vannevar, As we may think. In: Atlantic Monthly 176, S. 101-108
Castells, M. (1996): Volume 1: The Rise of the Network Society. Oxford, and Malden, MA: Blackwell Publishers.
Daft, R. L.; Lengel, R. H. (1986): Organizational Information Requirements, Media Richness and Structural Design, Management Science (32:5), pp. 554-571.
Deleuze, Gilles. (1998): Having an Idea in Cinema (On the Cinema of Straub-Huillet) Trans. Eleanor Kaufman. Deleuze and Guattari : New Mappings in Politics, Phi-losophy and Culture. Ed. Eleanor Kaufman & Kevin John Heller. Minnesota: Univ. of Minnesota Press.
Döring, N.; Schestag, A. (2000): Soziale Normen in virtuelle Gruppen, Eine empirische Analyse ausgewählter Chat-Channels, in: Thiedeke, Udo (Hrsg.):Virtuelle Gruppen, Charakteristika und Problemdimensionen, Wiesbaden: Westdeutscher Verlag, S. 304-347.
Friedrich, J.; Herrmann, T.; Peschek, M.; Rolf, A. (Hrsg.) (1995): Informatik und Gesell-schaft, Spektrum Akademischer Verlag: Heidelberg, S. 3-7.
Funakoshi, K.; Kamei, K.; Yoshida, S.; Kuwabara, K. (2001): Incorporating Content-Based Collaborative Filtering in a Community Support System, In: Yuan, S.-T. and Yokoo, M. eds., Intelligent Agents: Specification, Modeling, and Applications (PRIMA2001 Proceedings), LNAI 2132, Springer-Verlag, pp.198-209.
Gansing, K. (2003): The Myth of Interactivity or the Interactive Myth?: Interactive Film as an Imaginary, Melbourne: DAC 2003, http://hypertext.rmit.edu.au/dac/papers/ S. 39-40.
Greenspann, S.; Goldberg, D.; Weiner, D.; Basso, A. (2000): Interpersonal Trust and Common Ground in Electronically Mediated Communication, in: CSCW 2000, Computer Supported Cooperative Work, December 2-6. 2000, New York: ACM Order Department.
Giegel, H.-J. (Hrsg.) (1992): Kommunikation und Konsens in modernen Gesellschaften, Frankfurt/Main: Suhrkamp, S. 7-17.
Hattori, F., Ohguro, T., Yokoo, M., Matsubara, S., Yoshida, S. (1998): Supporting net-work communities with multiagent systems, in Ishida, T., editor, Community Com-puting and Support Systems: Social Interaction in Networked Communities, LNCS 1519, pp. 330 - 341, Springer-Verlag.
Herrmann, T.; Jahnke, T; Loser, K.-U. (2003): Die Unterstützung von Rollenzuweisung und Rollenübernahme: ein Ansatz zur Gestaltung von Wissensmanagement- und CSCL-Systemen In: G. Szwillus, J. Ziegler (Hrsg.): Mensch & Computer 2003: In-teraktion in Bewegung. Stuttgart: B.G. Teubner, 2003, S. 87 – 98.
Höök, K. (2003): Social navigation: from the web to the mobile, In: Szwillus G, Ziegler, J. (Hrsg.): Mensch & Computer 2003: Interaktion in Bewegung. Stuttgart: B.G. Teubner, 2003, S. 87 - 98
Krämer, N.; Bente, G. (2003): Brauchen Interface Agenten Emotionen? In: G. Szwillus, J. Ziegler (Hrsg.): Mensch & Computer 2003: Interaktion in Bewegung. Stuttgart: B.G. Teubner, S. 287 – 296.
Kleinwächter, W. (2004) Macht und Geld im Cyberspace, Wie der Weltgipfel zur Infor-mationsgesellschaft (WSIS) die Weichen für die Zukunft stellt, Hannover, Heise Verlag GmbH
Kling, R. (1987) "Computerization as an Ongoing Social and Political Process." in Com-puters and Democracy : A Scandinavian Challenge, edited by Gro Bjerknes, Pelle Ehn, Morten Kyng. Brookfield, Vermont: Gower Pub.Co.
Luhmann, N. (1987): Soziale Systeme, Frankfurt a.M.: Suhrkamp.
Luhmann, N. (1997): Die Gesellschaft der Gesellschaft, Franfurt a.M.: Suhrkamp.
Luhmann, N. (2000): Vertrauen, ein Mechanismus der Reduktion sozialer Komplexität, 4. Auflage. Stuttgart: Lucius und Lucius.
Lischka, K. (2002): Spielplatz Computer, Kultur, Geschichte und Ästhetik des Computer-spiels. Hannover: Verlag Heinz Heise.
Rheingold, H. (2002): Smart Mobs, The Next Social Revolution. Cambridge: Perseus Book Group.
Rolf, A. (1995): Das Selbstverständnis der Informatik; S. 3-7, siehe Friedrich, J. (1995).
Schelske, A. (2003) Wo entwickelt sich die Seriosität der Netizens? In: Beyer, L.; Frick, D.; Gadatsch, A.; Maucher, I.; Paul, H. (Hrsg.): Vom E-Business zur E-Society. New Economy im Wandel, München und Mering: Hampp, S. 175-194 (www.4communication.de)
Stegbauer, C. (2001): Grenzen virtueller Gemeinschaft. Strukturen internetbasierter Kommunikationsforen. Wiesbaden: Westdeutscher Verlag.
Sztompka, Piotr (1999): Trust, A Sociological Theory, Cambridge: Cambridge University Press
Weber, M. (1980): Wirtschaft und Gesellschaft, Grundriß d. verstehenden Soziologie. 5., rev. Auflage. Studienausgabe, Tübingen: Mohr.
Wellman, B. (1998): A computer network is a social network. Source ACM SIGGROUP Bulletin archive, Volume 19, Issue 3, Pages: 41 – 45, New York: ACM Press.

Bookmark

 
   zurück