MPIfG Working Paper 00/6, November 2000

by Raymund Werle  

 

Das "Gute" im Internet und die Civil Society 
als globale Informationsgesellschaft 

 

Raymund Werle ist Wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Gesellschaftsforschung, Köln

 

 

Abstract

The diffusion of the Internet has reinforced expectations that electronic communication media will trigger fundamental changes in society. Some argue that outside the real-world society a cybersociety is evolving which has its own norms of using technology and of dealing with one another. The technical and institutional structures of cyberspace and the values they embody are regarded as basic components of a model of a "good" society in which good technical norms are in accordance with good social norms. The paper describes the "good" of the Internet by examining the development of its technical, institutional and normative structure. The values of science, scepticism or opposition towards hierarchies, collective trust in the responsible "netizen" as well as new, open and "democratic" modes of technical coordination and standardization beyond politics and business shaped the early stages of Internet development. They have been present in the way the Internet Community perceives itself and is perceived by others, even though - as a consequence of the evolution of the World Wide Web - the Internet has been transformed into a multimedia system and has become socially heterogeneous.

 

The old normative and institutional elements of the Internet are expected to facilitate its global expansion. National and international policy initiatives aimed at launching a global information infrastructure mimic the model of the Internet. Not only big corporations and governments, but also voluntary associations, international organizations, private consortiums and the user community shall push this project forward. The global civil society is conceived of as a self-governed information society whose backbone is the global Internet.

 

 

Kurzfassung

Mit der Ausbreitung des Internet haben die Erwartungen, dass die elektronischen Kommunikationsmedien tiefgreifende gesellschaftliche Veränderungsprozesse auslösen werden, neue Nahrung erhalten. Gelegentlich wird sogar behauptet, dass sich außerhalb der Realgesellschaft eine Cybersociety entwickelt, die über eigene Normen des Umgangs und der Verständigung seiner Bürger sowohl mit der Technik als auch miteinander verfügt. Die technischen und institutionellen Strukturen des Cyberspace und die in ihnen verkörperten Werte werden als tragende Elemente eines Modells einer "guten" Gesellschaft idealisiert, in der gute soziale und technische Standards korrespondieren. Im Papier wird das "Gute" des Internet skizziert, indem die Entwicklung seiner technischen und seiner institutionellen und normativen Struktur analysiert wird. Werte der Wissenschaft, Skepsis oder Opposition gegenüber Hierarchien, kollektives Vertrauen in den mündigen Internetbürger sowie neue offene und "demokratische" Formen der technischen Koordination und Standardisierung jenseits von Politik und Kommerz prägen die frühen Entwicklungsphasen des Netzes. Sie wirken bis heute im Selbstbild und im Fremdbild der Internet-Community nach, auch wenn mit der Entwicklung des World Wide Web das Internet sozial heterogen und technisch multimedial geworden ist.

 

Die alten normativen und institutionellen Elemente des Netzes sollen nun auch die globale Ausbreitung des Internet fördern. Nationale und internationale politische Initiativen, die darauf zielen, eine globale Informationsinfrastruktur aufzubauen, orientieren sich am Modell Internet. Nicht nur große Unternehmen und schon gar nicht Regierungen, sondern freiwillige Assoziationen, internationale Organisationen, private Konsortien, aber auch die User-Community sollen das Projekt vorantreiben. Die globale Civil Society soll eine von ihr selbst geordnete Informationsgesellschaft mit dem globalen Internet als Rückgrat werden.

 

 

 

Inhalt

 

1  Einleitung

Theoretische Vorbemerkung: Zur Prägekraft der Geschichte 
    und zur handlungssteuernden Wirkung von Technik

3  Das "Gute" im Internet

4  Internet und Civil Society Literatur

Literatur



1 Einleitung[1]

 

Am Internet scheiden sich die Geister. Zwar besteht Einigkeit, dass dieses elektronische Kommunikations- und Informationsmedium tiefgreifende gesellschaftliche Veränderungen auslösen wird, doch ist deren konkrete Ausprägung, vor allem aber deren Bewertung umstritten. Dies ist auch darauf zurückzuführen, dass das Internet heute, sieht man von einigen allen Netzteilen gemeinsamen technischen Spezifikationen ab, kaum als ein einheitliches Netz erscheint, über das man leicht generalisierende Aussagen machen kann. Dennoch ermöglichen es die vorliegenden empirischen Studien über die Entstehung, die Entwicklung und die aktuellen Steuerungsprobleme des Netzes einerseits und über die Muster und Folgen der Nutzung einschließlich der Herausbildung virtueller Gemeinschaften andererseits die technischen, institutionellen und normativen Strukturen des Internet generalisierend einzuschätzen. Diese Strukturen und die in ihnen verkörperten Werte werden gelegentlich als tragende Elemente einer "guten" Gesellschaft charakterisiert, in der sich gute technische und gute soziale Merkmale wechselseitig stabilisieren. Nach einer kurzen theoretischen Vorbemerkung, die zum einen begründet, warum für die Analyse auch ein Blick auf die Entstehungsgeschichte des Internet notwendig ist, und die zum anderen skizziert, wie Technik Optionen sozialen Handelns strukturiert, werde ich im ersten Hauptteil meines Vortrags einige dieser technischen, institutionellen und normativen Elemente näher untersuchen. Dabei wird die techniksoziologische mit einer institutionellen Perspektive verknüpft. Da das Internet in den USA entstanden ist, wo es auch heute noch seinen eindeutigen Schwerpunkt hat, liegt auch der Schwerpunkt der Analyse auf den USA.

 

Im zweiten Hauptteil wende ich mich spezifischen Aspekten der Nutzung des Internet zu. Vor dem Hintergrund der aktuellen Debatte über Informationsgesellschaft und Civil Society skizziere ich bereits sichtbare oder zu erwartende politische Struktureffekte des Internet als einer relativ zweckoffenen technischen Infrastruktur.

 

 

2 Theoretische Vorbemerkung: Zur Prägekraft der Geschichte und
zur handlungssteuernden Wirkung von Technik

 

Wenn ich die Analyse mit einem Blick in die frühe Geschichte des Internet beginne, so tue ich dies nicht, um die vielfältigen Mythen zu zerstören, die sich um die Entstehung und Entwicklung des Netzes ranken. Nur als Nebenbemerkung sei gesagt, dass Erfolgsgeschichten wie die des Internet, insbesondere wenn sie Amerikanische sind, dazu verleiten, persönliche Pionierleistungen, die es ganz unbestritten gegeben hat, zu glorifizieren und die Bedeutung gesellschaftsstruktureller und institutioneller Faktoren zu unterschätzen. Der Blick in die Geschichte dient vielmehr dazu, charakteristische technische Merkmale des Internet und seine ursprüngliche soziale Einbettung, aber auch parallele Entwicklungen von Datennetzen in den USA zu skizzieren. Zeitlich relativ weit zurück liegende Ereignisse und Entscheidungen haben technische und soziale Entwicklungsprozesse ausgelöst, deren strukturierende Wirkungen im Sinne einer Pfadabhängigkeit bis heute anhalten (vgl. hierzu Pierson 2000). Es sind vor allem die überkommenen technischen Strukturen und die traditionellen normativen Prinzipien der Nutzung und Gestaltung des Internet - also frühzeitig entstandene strukturelle und institutionelle Elemente -, die gemeint sind, wenn auf das Gute im Internet verwiesen wird.

 

Dies ist aus techniksoziologischer Sicht interessant, weil technischen Faktoren normativ klassifizierbare Wirkungen zugerechnet werden. Um zu illustrieren, was hiermit gemeint ist, orientiere ich mich an einem sehr einfachen Schaubild, das Lawrence Lessig, ein Rechtsprofessor an der Harvard Universität, in einem viel beachteten Buch über die Gesetze des Cyberspace in verschiedenen Varianten präsentiert (Lessig 1999: 88).

 

 

Lessig nennt vier Faktorenbündel - er spricht auch von "constraints" -, die das Handeln der Akteure, wie er sagt, "regulieren". Rechtliche Regeln, Marktkräfte, soziale Normen, aber auch technische Systemarchitekturen determinieren unser Handeln zwar nicht, wie Lessig meint, unmittelbar, sie konstituieren und strukturieren aber unsere Handlungsoptionen - in der realen Welt ebenso wie in der Welt der Computernetze. Die Struktur eines Gebäudes oder die eines Straßennetzes sind Systemarchitekturen der realen Welt. Im Cyberspace sind es zum Beispiel Protokolle für die Kommunikation zwischen Computern und für die Übertragung von Daten, oder es ist Software für deren Verschlüsselung. Solchen technischen Faktoren attestiert Lessig eine besondere Effektivität, weil sie quasi automatisch auf das Verhalten wirken. Sie sind "self-executing", während etwa die Wirksamkeit des Rechts und der sozialen Normen auch davon abhängt, dass abweichendes Verhalten tatsächlich sanktioniert wird (Lessig 1999: 233-239).

 

Die Beispiele für die Verhaltenswirksamkeit technischer Architekturen in der realen Welt sind zahlreich. Wir betreten ein Gebäude durch die Tür und klettern nicht durch das Fenster, und wir sehen uns veranlasst, den Aufzug zu benutzen, um das 25. Stockwerk zu erreichen, wollen wir dort nicht ziemlich erschöpft ankommen. Im Cyberspace, einer zunächst rein technisch konstituierten Welt, in der sogar technische Akteure, sogenannte Agenten, existieren, ist die handlungssteuernde Wirkung von Technik besonders stark. Wenn man zum Beispiel bestimmte Regeln der Adressierung einer E-Mail nicht beachtet, wird der elektronische Brief nicht befördert. Es herrscht, so könnte man fast sagen, Technikdeterminismus. Und doch ist das Handeln nicht in dem Sinne determiniert, dass es überwiegend einer technischen Eigenlogik folgt (vgl. auch Werle 2000a). Vielmehr werden auch soziale Normen, rechtliche Regeln oder ökonomische Prinzipien, um es in der Sprache der Sozialkonstruktivisten auszudrücken, in die Technik "eingeschrieben" (Knie 1994) und durch die Technik bzw. in technisch mediatisierter Form wirksam - wiederum aber nur so, dass sie Handlungsoptionen im Sinne einer Opportunitätsstruktur eröffnen und strukturieren (Schaubild 2).[2]

 

 

Es ist mittlerweile eine techniksoziologische Binsenweisheit, dass solche Wirkungen von den Konstrukteuren der Technik oft überhaupt nicht vorhergesehen, in Betracht gezogen oder gar angestrebt wurden (Rammert 1992). Ganz sicher konstruieren "böse" Ingenieure nicht "böse" Technik und "gute" Ingenieure "gute" Technik. Der Umstand, dass Technik, auch wenn sie sich oft nicht nach einem bestimmten Plan entwickelt und zudem unvorhergesehene Folgen zeitigt, verhaltenssteuernde Wirkungen hat, macht es notwendig, die Technik und die sozialen Kontexte ihrer Entstehung und Nutzung nun etwas genauer zu analysieren.

 

 

3 Das "Gute" im Internet

 

Nach der kurzen Skizze der Bedeutung technischer Architekturen für das soziale Handeln und der Beeinflussung dieser Architekturen durch den sozialen Kontext ihrer Entstehung betrachte ich nun im Schnelldurchgang einige wichtige Phasen der Entwicklung des Internet. Es ist allgemein bekannt, dass die frühe Entwicklung des Internet bzw. seines zentralen Vorläufers, des ARPANET, in einem militärischen Kontext stand (Norberg/ O'Neill 1996; Abbate 1999). Die Bedeutung militärstrategischer Ziele für die Gestaltung des Netzes wird allerdings überschätzt. Niemals war das Netz eine Militärtechnologie im engeren Sinne. Bereits in den 1960er Jahren begann das amerikanische Verteidigungsministerium bzw. seine Advanced Research Projects Agency (ARPA) den Aufbau eines Computernetzes zu finanzieren, das Rechner derjenigen Einrichtungen vernetzte, die Forschungsaufträge des Ministeriums erfüllten. Dieses ARPANET genannte Netz, dessen erster Knoten 1969 installiert wurde, diente überwiegend wissenschaftlichen Zwecken. Es eröffnete den Forschern einen Zugang zu besonders leistungsstarken Computern und ermöglichte Kooperation über räumliche Distanzen hinweg. Gleichzeitig diente das ARPANET der Computerwissenschaft als Testbett zur Erprobung neuer Vermittlungs- und Übertragungstechniken. Ausgewählte hochrangige Universitäten und große industrielle Forschungslaboratorien nutzten das Netz und gestalteten es gleichzeitig. In den 1970er Jahren, in denen das Netz relativ langsam wuchs, entstanden erste Gremien der Selbstverwaltung mit teils operativen und teils konsultativen Funktionen. Diese auf freiwilliger Basis gebildeten Einheiten sind Vorläufer der noch heute existierenden Gremien der überwiegend technisch-organisatorischen Selbstkoordination des Internet. Solche Koordinationsaufgaben erfüllten etwa einige mit Host-Rechnern an das Netz angeschlossene Forschungsinstitute in der Network Working Group, dem Vorläufer der heutigen Internet Engineering Task Force (IETF), die technische Standards für das Internet entwickelt. Alle Organisationen waren eingebettet in eine Hierarchie, an deren Spitze ARPA stand.

 

Es war diese hierarchische Konstellation, die letztlich Gewähr dafür bot, dass Anfang der 1980er Jahre für das gesamte ARPANET verbindliche neue Vermittlungs- und Übertragungsprotokolle eingeführt wurden, die nicht nur heute noch im Internet benutzt werden, sondern sogar konstitutiv für das Netz sind. Das Transmission Control Protocol (TCP) und das Internet Protocol (IP) sorgen dafür, dass Datenpakete über vielfältige Wege im Netz vom Sender zum Empfänger gelangen. Die Protokolle funktionieren in ganz unterschiedlichen Protokollumgebungen, das heißt in Netzen, die technisch unterschiedlich spezifiziert sind. TCP/IP macht es also möglich, heterogene, an sich inkompatible Computernetze miteinander zu verbinden, ohne dass deren interne technische Struktur geändert werden muss. Genau dies war auch das Ziel der Entwicklung des Protokolls (Salus 1995). Hier ist also einmal nicht etwas entstanden, was niemand intendiert hatte. Vielmehr finanzierte ARPA entsprechen1de Forschungs- und Entwicklungsarbeiten, weil das amerikanische Militär bereits technisch sehr verschiedene Netze (für unterschiedliche Zwecke) benutzte, die miteinander verbunden werden sollten. Mit dem TCP/IP-Protokoll gelang es, unterschiedliche Netze in einer Weise miteinander zu vernetzen, dass sie aus der Sicht der Benutzer wie ein einheitliches Netz erscheinen.

 

Für die Vernetzung ist nicht mehr als ein Minimum an organisatorischer Zentralisierung erforderlich. Die einzelnen Netze und die an sie angeschlossenen Endgeräte müssen eindeutig identifizierbar sein, was über die zentrale Vergabe der Adressen (IP-Nummern) sichergestellt wird. Zudem muss auf den an den Verbindungspunkten der Netze eingesetzten Vermittlungsrechnern TCP/IP laufen. Die Übertragung der Datenpakete in den Netzen wird nicht zentral gesteuert, sondern jedes Paket sucht sich "selbständig" einen Weg vom Sender zum Empfänger. Der Verkehr im Internet gleicht mehr dem Verkehr auf Straßen als demjenigen auf Schienen.[3]

 

TCP/IP erlaubt also - und das ist normativ wichtig - was Fritz Scharpf im Zusammenhang mit Problemen der europäischen Integration, aber orientiert an bestimmten technischen Koordinationslösungen, als "autonomieschonende" Integration bezeichnet (Scharpf 1993). Diese Möglichkeit der weichen Integration technischer Netze wird allgemein als positive Eigenschaft der Architektur des Internet geschätzt. Sie eliminiert keine in den einzelnen Netzen bestehenden Nutzungsmöglichkeiten, sondern schafft durch die Vernetzung zusätzliche Nutzungsoptionen. Genau dort, wo die technische Architektur das Handeln relativ stark determinieren bzw. homogenisieren könnte, bewahrt sie beim Internet Heterogenität und bleibt zweckoffen.

 

Diese Eigenschaft kam im ARPANET kaum zum Tragen, weil zunächst nur drei technisch unterschiedliche Netze vernetzt wurden. Sie begann erst Früchte zu tragen, als die amerikanische National Science Foundation (NSF) Mitte der 1980er Jahre damit begann, ein Wissenschaftsnetz aufzubauen. Ziel war es, fünf neu gegründete Zentren für Supercomputer miteinander zu vernetzen und gleichzeitig möglichst vielen Wissenschaftlern an den Universitäten Zugang zu diesen Zentren zu verschaffen. Die NSF entschied sich für TCP/IP als Netzstandard, was es ermöglichte, ihr Netz auch mit dem ARPANET zu vernetzen. Der Standard war auch für viele Universitäten attraktiv, weil er nicht durch Eigentumsrechte des Verteidigungsministeriums geschützt war. TCP/IP konnte von den Universitäten, von denen viele bereits eigene unterschiedlich konfigurierte lokale Netze betrieben, kostenlos implementiert werden. Sodann konnten diese Netze mit dem Netz der NSF mit der Folge verkoppelt werden, dass bereits Ende der 1980er Jahre ein flächendeckendes Netz von Netzen die amerikanischen Universitäten und sonstigen Forschungseinrichtungen verband (Mandelbaum/ Mandelbaum 1996).[4]

 

Dass TCP/IP kostenlos zur Verfügung stand, war nicht ungewöhnlich. Unter Computerspezialisten speziell an den Universitäten war es üblich, selbst entwickelte Software anderen kostenlos zu überlassen. Diese Tradition, die noch heute im Internet lebendig ist, hat zweifellos dazu beigetragen, dass das Netz schnell gewachsen ist, weil ohne großen Aufwand mit immer neuen Anwendungen experimentiert werden konnte. In ihr drücken sich in der amerikanischen Computerwissenschaft verankerte Normen wie Hilfsbereitschaft, Kooperation und auch Offenheit aus, die verbunden sind mit einer generellen Reziprozitätserwartung (vgl. Kollock 1999).[5] Diese zweifellos "guten" Normen lassen sich nicht nur im ARPANET und dann im Netz der National Science Foundation, sondern, wie ich noch zeigen werde, auch in Netzen außerhalb des engeren Wissenschaftsbereichs beobachten.

 

Anders als TCP/IP, das als zentrale Komponente der Systemarchitektur des Internet betrachtet werden kann, handelt es sich bei den gerade genannten Normen natürlich nicht um technische Eigenschaften, sondern um in Interaktionen von Normen und Technik entstandene Spezifikationen von Normen. Die Doppelpfeile im Schaubild 3 sollen diese interaktive Relation verdeutlichen.

 

 

Kooperation und Offenheit finden ihren technischen Ausdruck in sogenannter Open Source Software, d.h. in Programmen, deren Quellcode offen liegt und die deshalb von Software-Spezialisten verändert werden können.[6] Im Gegensatz zu einem Großteil der kommerziellen Software lässt die im Internet noch relativ weit verbreitete Open Source Software Gestaltungsoptionen offen, was als weitere positive Eigenschaft des Netzes geschätzt wird.[7 ]Ihren sichtbarsten institutionellen Ausdruck haben die Normen der Offenheit und Kooperation in der bereits erwähnten Internet Engineering Task Force (IETF) gefunden. Die IETF entwickelt die meisten technischen Standards für das Internet. Ursprünglich eine relativ kleine überwiegend akademisch geprägte Gruppe, ist die IETF heute auf mehrere Tausend Mitglieder angewachsen, die in zahlreichen Arbeitsgruppen technische Debatten führen und Software testen. Prinzipiell kann jeder Interessierte in den Gruppen mitarbeiten. Die Mitarbeit ist unentgeltlich, und der Arbeitsstil ist kooperativ (Helmers/ Hoffmann/ Hofmann 1998). Die erarbeiteten Standards werden kostenlos im Internet verbreitet. Formell betrachtet hat die IETF nur sehr geringe Möglichkeiten, für Betreiber und Benutzer des Netzes verbindliche Entscheidungen zu treffen. Ihre historisch gewachsene Autorität ist jedoch beträchtlich. Das starke Größenwachstum der IETF hat zu einer verstärkten Formalisierung der Arbeitsprozesse und Entscheidungsstrukturen geführt. Dennoch unterscheidet sich die IETF weiterhin wegen ihrer größeren Offenheit und der Tatsache, dass sie ihre Standards kostenlos verbreitet, von den traditionellen internationalen Standardisierungsorganisationen (vgl. Schmidt/ Werle 1998).

 

Das ARPANET und das Netz der NSF haben sich als Wissenschaftsnetze in einem stark akademisch geprägten Kontext entwickelt. Die besonders in den frühen Jahren relativ homogene Gruppe der Nutzer gab sich überwiegend selber die Regeln der Nutzung des Netzes. Einige wurden vom Internet Architecture Board (IAB), einem Selbststeuerungsgremium, explizit ausformuliert und im Netz bekannt gemacht. Die Regeln des IAB zielen vor allem darauf, einen reibungslosen Netzbetrieb und eine verantwortliche und solidarische Nutzung der knappen Kapazitäten zu gewährleisten. Offizielle, formal verbindliche Benutzungsregeln wurden von den Universitäten erlassen. Sie waren jedoch wenig spezifisch und schlossen lediglich ganz explizit die private Nutzung der Netze für kommerzielle Zwecke aus (vgl. Leib/ Werle 1998). Solche Verhaltensnormen im Hinblick auf die Nutzung der Netze und ihrer begrenzten Kapazitäten waren nicht zuletzt deshalb notwendig, weil die Architektur der Netze nur wenige Möglichkeiten bot, durch technische Vorkehrungen unerwünschte Verhaltensweisen zu unterbinden. Zudem hatte das aus öffentlichen Mitteln finanzierte und zum größten Teil mit nicht proprietärer Software operierende Wissenschaftsnetz den Charakter eines öffentlichen Gutes, von dessen Nutzung möglichst niemand ausgeschlossen werden sollte.

 

Andere Verhaltensnormen betreffen den Umgang der Nutzer miteinander. Sie beziehen sich also weniger auf technische Aspekte, sondern tragen der Tatsache Rechnung, dass sich am Ende der Leitungen Menschen befinden, die miteinander kommunizieren. Hatte beim ARPANET, das primär für den Transport von Datensätzen und den Zugriff auf räumlich entfernte Großrechner vorgesehen war, die relativ starke Nutzung als Kommunikationsmedium mit Hilfe von damals wenig komfortablen Electronic Mail Systemen noch überrascht (Hafner/ Lyon 1996), so waren im Umfeld der Universitäten bereits Datennetze entstanden, die ausschließlich der Kommunikation dienten (vgl. Rheingold 1994; auch Wetzstein et al. 1995). Besonders bekannt ist das USENET, das Ende der 1970er Jahre von Benutzern des Betriebssystems UNIX gegründet wurde, um sich über Probleme mit dem System auszutauschen und es kooperativ weiter zu entwickeln. Das USENET ist relativ rasch gewachsen, und es hat sich eine schier unüberschaubare Zahl von Newsgroups etabliert, in denen Meinungen und Informationen über die unterschiedlichsten Themen bekannt gemacht und ausgetauscht werden (Hauben/ Hauben 1997). Ähnlich wie beim ARPANET und beim amerikanischen Wissenschaftsnetz sind wichtige Komponenten des USENET, insbesondere UNIX und die dazu gehörenden Kommunikationsprotokolle, nicht proprietäre offene Software. Das USENET macht einen sehr ungeordneten chaotischen Eindruck, und es wurde vor allem deshalb zu einem interessanten Gegenstand sozialwissenschaftlicher Analysen der sozialen Strukturen und der Prozesse der Ordnungsbildung in den Newsgroups (Smith 1999; Helmers/ Hoffmann/ Hofmann 1998).

 

Im USENET und in vielen kleineren privaten Datennetzen bildeten sich ebenso wie im Wissenschaftsnetz Regeln des Umgangs und der Kommunikation heraus, die zusammenfassend als Netiquette bezeichnet werden.[8] Die Netiquette ist wesentlicher Bestandteil der Netzkultur bzw. der verschiedenen Subkulturen. Ursprünglich war sie stark durch den Jargon und die Gewohnheiten der Hacker geprägt.[9] Auch die Netiquette, so kann man argumentieren, hat sich als normative Ordnung des Cyberspace in der Interaktion sozialer Normen der realen Welt mit den technischen Gegebenheiten der Netze herausgebildet. Diese Ordnung kann an dieser Stelle nicht näher analysiert werden. Lediglich zwei Komponenten, die sowohl in der Wissenschafts- als auch in der Hackerkultur verankert sind, sollen erwähnt werden: der hohe Wert der Freiheit der Rede und die Skepsis oder Opposition gegenüber Bürokratien und Hierarchien.

 

Die bislang skizzierten Eigenschaften des Internet haben sich in der Zeit entwickelt, in der das Netz überwiegend öffentlich finanziert wurde. Auch die Netze wie das USENET, die sich im Umfeld der Universitäten herausbildeten, waren keine kommerziellen, sondern kooperative Netze (Quarterman/ Hoskins 1990). Es gab zwar auch kommerziell betriebene Netze oder große Firmennetze. Diese waren aber in der Regel nicht offen und hatten geschlossene Benutzergruppen. Die Netze wurden ähnlich wie Telefonnetze zentral gesteuert, und auch die Dienstleistungen wurden von den Betreiberfirmen angeboten, was den Benutzern nur wenig Gestaltungsspielraum ließ.

 

 

Beim Internet korrespondierten die in Schaubild 4 noch einmal zusammengefassten Eigenschaften der technischen Systemarchitektur wie Offenheit, Optionenvielfalt, Dezentralisierung mit spezifischen Normen der Nutzung des Netzes und des Umgangs der Nutzer miteinander.[10] Den lange Zeit äußerst geringen technischen Möglichkeiten einer Kontrolle der Nutzer durch die Betreiber der Netze und die Anbieter von Diensten entsprachen im Wissenschaftssystem verankerte Prinzipien der Offenheit und Redefreiheit einerseits und diese Prinzipien abstützende Normen der Solidarität, Selbstverantwortung und Selbstkontrolle andererseits. Der gute "mündige" Internetbürger verhielt sich diesen Normen entsprechend, und er verfügte über die technische Kompetenz, sich gegen Unerwünschtes selbst zu schützen und das Netz aktiv mitzugestalten.

 

Gegen Ende der 1980er Jahre setzte ein Prozess des Wandels des amerikanischen Wissenschaftsnetzes ein, der sich den in den technischen und normativen Strukturen des Netzes angelegten Prinzipien verdankt (vgl. Berners-Lee 1999: 103-121). Die in Europa bei CERN entwickelte Hyper Text Markup Language (HTML) wurde in den USA aufgegriffen und bildete zusammen mit den entsprechenden Übertragungsprotokollen und den sog. Browsern die Basis des World Wide Web (WWW), das ein enormes Wachstum des Internet ausgelöst hat und dieses aus einem Medium für Texte und Daten in ein multimediales Netz transformiert hat.  Ganz der dominanten Tradition des Internet entsprechend war die dem WWW zugrunde liegende Software wieder Open Source Software. Das WWW lockte kommerzielle Nutzer, die im Prinzip willkommen waren und die die soziale Heterogenität des Netzes weiter vergrößerten. Die kommerziellen Nutzer verfügten zudem über die für den weiteren Ausbau des Internet notwendigen Finanzmittel. Das Internet verlor im Laufe der 1990er Jahre sehr rasch seinen Charakter als Wissenschaftsnetz. In der Mitte des letzten Jahrzehnts zog sich die National Science Foundation aus der Finanzierung zurück, und das Internet wurde privatisiert. Gleichzeitig migrierten die meisten kooperativen Netze in das Internet und wurden von ihm absorbiert. Heute ist das Netz ein technisch und sozial sehr heterogenes Netz.

 

Mit der Kommerzialisierung des Internet drohen dessen gute Eigenschaften in den Hintergrund gedrängt zu werden. Lawrence Lessig, dessen Publikation ich bereits eingangs zitiert habe, weist sehr pointiert darauf hin, dass die bei vielen geschäftlichen Transaktionen gegebene Notwendigkeit, Sender und Empfänger von Leistungen identifizieren zu können, zur Folge hat, dass in die entsprechenden Anwendungsprogramme Kontrollmöglichkeiten eingebaut werden (Lessig 1999). Diese Programme lassen den Nutzern in der Regel auch keine Gestaltungsmöglichkeiten. Sie sind keine Open Source Software und zudem in der Regel proprietär. Dienste-Anbieter kontrollieren oft mit Hilfe sogenannter Cookies das Verhalten der Surfer im WWW und nutzen die gewonnen Informationen für kommerzielle Zwecke, ohne dass dies den Surfern immer bewusst ist. Die großen Service-Provider wie AOL oder T-Online haben zudem für die von Ihnen angebotenen Dienstleistungen Benutzungsregeln formuliert, die sich zwar teilweise an der Netiquette orientieren, die aber letztlich von diesen Firmen und nicht den Nutzern festgelegt werden. Obwohl zur Zeit der Eindruck vorherrscht, dass im Internet Urheberrechte kaum geschützt werden können, ist mittelfristig damit zu rechnen, dass neue Anwendungsprogramme, sogenannte Trusted Systems, diesen Schutz und damit die Kontrolle der Nutzer perfektionieren.

 

Auf der Ebene der Netze bzw. des Netzbetriebs zeichnen sich Zentralisierungstendenzen ab, die, wenn sie sich fortsetzen, die technisch dezentralisierte Netzstruktur organisatorisch aushebeln. So besitzt die Worldcom-Gruppe über 20% der Backbone-Kapazität, das heißt der großen Fernstrecken, in den USA. Gleichzeitig lassen sich Fragmentierungen des ursprünglich weitgehend integrierten Internet beobachten. Sogenannte Intranets bilden von der globalen Netzentwicklung nur partiell beeinflusste Inseln im Internet, die nur von denjenigen betreten werden können, die hierzu autorisiert sind.

 

Mit den technischen gehen normative Veränderungen einher, die die Kommerzialisierung insgesamt als eine Bedrohung des guten Internet erscheinen lassen. Doch sind auch die alten Normen und Traditionen noch so lebendig, dass man die Kommerzialisierung zur Zeit durchaus positiv in dem Sinne beurteilen kann, dass Pluralität und Heterogenität zugenommen haben und der Zugang zum Internet sich verbessert hat, was es neuen Internetbürgern ermöglicht, am guten Internet teilzuhaben. Aus dieser Perspektive überrascht es nicht, dass insbesondere die amerikanische Regierung die Kommerzialisierung des Internet nicht als eine Bedrohung, sondern als eine förderungswürdige zum nicht kommerziellen Bereich des Netzes komplementäre Entwicklung sieht. Sie führt, so sieht es die Regierung, zu einer umfassenden Informationsinfrastruktur, die zweckoffen ist, also kommerzielle ebenso wie private, kulturelle ebenso wie politische Nutzungen ermöglicht (vgl. Kahin 1997; Drake 1995).

 

 

Internet und Civil Society

 

Das Gute im Internet, dem allgemein ein demokratiestärkendes Potential attestiert wird (vgl. Leib 2000), muss durch die Kommerzialisierung also nicht verloren gehen. In der Tat lassen sich Anzeichen dafür erkennen, dass das Internet politische Entscheidungsprozesse und die Struktur politischer Systeme in einer Weise beeinflusst, die die Zivilgesellschaft stärkt. Im abschließenden Teil meines Vortrags betrachte ich die politische Dimension des Internet etwas genauer.

 

Die ökonomische Globalisierung und die daraus resultierenden Handlungsrestriktionen für die nationalen Parlamente und Regierungen und vielleicht auch ein genereller Legitimitätsverlust der dominanten Praxis politischer Herrschaft in den westlichen Demokratien haben Diskussionen um alternative oder auch komplementäre Formen demokratischer Herrschaft ausgelöst, in denen das Konzept der Civil Society einen Kristallisationspunkt bildet. Es würde zu weit führen, an dieser Stelle die einzelnen Facetten dieses Konzepts darzustellen und zu diskutieren. Deshalb beschränke ich mich darauf, orientiert an Benjamin Barber drei Sichtweisen auf die Zivilgesellschaft zu unterscheiden (Barber 1998: 12-37).

 

1. Das liberale ("libertarian") Konzept betrachtet die Zivilgesellschaft als den gesamten privaten Sektor, in dem die Beziehungen zwischen den Individuen und Gruppen in der Regel Vertragsbeziehungen sind und die Prinzipien der freien Marktkoordination dominieren. Märkte, definiert über freiwillige Verträge und freie Zusammenschlüsse von Individuen, stehen in dieser Konzeption als Synonym für Freiheit. Die liberale Zivilgesellschaft regelt fast alle ihre Angelegenheiten selber (zumeist über den Markt), betrachtet den Staat mit Misstrauen und drängt ihn in die Rolle des Nachtwächterstaates.

 

2. Die kommunitaristische ("communitarian") Variante sieht die Zivilgesellschaft als den Bereich an, in dem die Menschen ihre Beziehungen zueinander nicht mit Verträgen, sondern auf der Basis von Solidarität, diffuser Reziprozität und anderen Normen sozialer Vergemeinschaftung ordnen. Neben die traditionellen gemeinschaftlichen Bande der Nachbarschaft oder Verwandtschaft treten freiwillige Vergemeinschaftungen in Vereinen und anderen Gruppen. Die Gemeinschaften werden als eingebettet in eine übergeordnete, zumeist staatliche Ordnung gesehen, doch genießen die Gemeinschaften Vorrang im Sinne des Subsidiaritätsprinzips.

 

3. Die dritte Variante, die Barber als das Modell der starken Demokratie ("strong democratic model") bezeichnet, wird von anderen Autoren auch "assoziative Demokratie" genannt (z.B. Hirst 1997; vgl. auch Cohen/ Rogers 1995). Sie siedelt die Zivilgesellschaft im Bereich zwischen Staat und Markt an und konstituiert einen unabhängigen "dritten Sektor", in dem sich bürgerschaftliches Engagement entfaltet. Eine herausragende Rolle spielen freiwillige gemeinnützige Vereinigungen, die nicht nur die Interessen der Bürgerschaft in die Politik vermitteln, sondern auch selbst anstelle des Staates kollektive Aufgaben erfüllen. Die Vereinigungen ermöglichen aktive Partizipation, sind egalitär und offen für neue Mitglieder. Sie organisieren die unterschiedlichen gesellschaftlichen Gruppen und bilden in ihrer Gesamtheit gesellschaftliche Heterogenität und Pluralität ab. Selbstregulierung macht staatliche Intervention überflüssig.

 

Für jede der drei Varianten der Zivilgesellschaft finden wir im Internet kompatible technische und normative Elemente.

 

Mit der Kommerzialisierung des Netzes sind die Elemente der liberalen Zivilgesellschaft in den Vordergrund getreten. Diese haben auch die Regierungen in den USA und in den großen Industrieländern im Auge, wenn sie den Ausbau der nationalen und internationalen Informationsinfrastruktur vorantreiben. Wegen der im Vergleich zu traditionellen Handelsformen in manchen Bereichen deutlich niedrigeren Transaktionskosten beim elektronischen Handel wird hier mit einem raschen Wachstum gerechnet. Insbesondere die USA verfolgen eine "laissez-faire"-Strategie, die auf jegliche staatliche Intervention in den elektronischen Handel verzichtet und auch dort auf die in den normativen Prinzipien des Netzes angelegten Fähigkeiten der Akteure zur Selbstverantwortung und Selbstkoordination vertraut, wo manche staatlichen Handlungsbedarf sehen (z.B.: beim Schutz persönlicher Daten). In Europa lässt sich eine gewisse Tendenz der Regierungen und der Europäischen Kommission beobachten, in den elektronischen Handel zu intervenieren. Dass dennoch letztlich auf solche Maßnahmen verzichtet wird, erklärt sich zu einem guten Teil aus der technischen Hilflosigkeit der Regierungen gegenüber dem Internet. Dies wird sich in Zukunft ändern, da sich durch die Kommerzialisierung, wie bereits erwähnt, oberhalb der technischen Basisarchitektur des Internet Systemkomponenten entwickeln, die eine Kontrolle der Transaktionen im Netz ermöglichen. Anders als für die private oder auch die wissenschaftliche Nutzung des Netzes haben sich nur sehr schwache eigenständige normative Traditionen für die kommerzielle Nutzung herausgebildet. Es ist nicht zu erwarten, dass sie in die generellen politisch-institutionellen Strukturen der Wirtschaft ausstrahlen und in diesem Sinne ein die liberale Zivilgesellschaft stärkender Impuls vom Internet ausgeht.

 

Manche der kommunitaristischen Elemente der Zivilgesellschaft finden wir in den virtuellen Gemeinschaften, die sich in einigen der zahlreichen Diskussionsgruppen herausgebildet haben. Zwar könnten nationale, verwandtschaftliche, religiöse oder andere realweltliche Faktoren auch eine Basis für Solidargemeinschaften im Cyberspace bilden. Doch ist dies eher unwahrscheinlich, weil solche Faktoren in der elektronischen Kommunikation in der Regel gar nicht erkennbar sind oder auch versteckt werden. Im Zusammenhang mit der Herausbildung kooperativer Netze habe ich bereits gezeigt, dass Hilfsbereitschaft und Kooperation wichtige normative Elemente der dort entstandenen Gemeinschaften sind und auch große Teile der diese Gemeinschaften stabilisierenden Netiquette hier ihren Ursprung haben. Insgesamt erscheinen die Gemeinschaften im Cyberspace jedoch als eher selbstgenügsam und ohne großen Anspruch auf Außenwirksamkeit. Sie integrieren das Internet nicht, sondern fragmentieren es eher und wirken kaum in die Realwelt hinein.

 

Eine besonders hohe Affinität hat das Internet zur Variante der Zivilgesellschaft als starker Demokratie und drittem Sektor zwischen Staat und Markt. Viele bürgerschaftliche Vereinigungen im sozialen und kulturellen Bereich und insbesondere die sozialen Bewegungen entsprechen im Hinblick auf ihre Organisationsformen und normativen Prinzipien dem Internet. Diese Gruppen sind oft lose und territorial dezentral organisiert, haben eine nur schwach ausgeprägte Hierarchie und demokratische oder meritokratische Strukturen, und sie sind offen für und angewiesen auf aktive Partizipation. Zusammen mit den klassischen Interessenverbänden bilden sie ein pluralistisches System von Assoziationen, in dem die unmittelbaren Machtmittel der einzelnen Einheiten in der Regel gering sind. In politischen Auseinandersetzungen setzen sie deshalb auf Selbstorganisationsfähigkeit, Mobilisierung von Öffentlichkeit und diskursives Argumentieren. Dies gilt insbesondere für die sozialen Bewegungen wie Umwelt-, Frauen- oder Bürgerrechtsgruppen. Viele von ihnen haben frühzeitig internationale Kooperationspartner gesucht, weil ein Agieren auf rein nationaler Ebene wirkungslos gewesen wäre.

 

Das Internet wurde von diesen Gruppen frühzeitig entdeckt und in Gebrauch genommen - zuerst natürlich in den USA, wo bereits 1987 die APC (Association for Progressive Communications) gegründet wurde. Die APC versteht sich als nicht gewinnorientierte Dienstleistungsorganisation, die Nichtregierungsorganisationen (non-governmental organizations - NGOs) weltweit bei der Nutzung des Internet unterstützt.[11] Im letzten Jahrzehnt wurden einige weitere vergleichbare Organisationen gegründet, die vor allem NGOs in peripheren Regionen Hilfestellung leisten.[12] Inzwischen nutzen Frauen-, Umwelt- und Bürgerrechtsgruppen weltweit das Internet (vgl. Conca 1996; Greve 1997). Viele dieser Gruppen haben sich elektronisch miteinander vernetzt. Kleine Organisationen demonstrieren ihre Zugehörigkeit zu einer größeren Bewegung, indem sie von ihrer Homepage Links zu den befreundeten Organisationen legen. Sie kooperieren mit diesen, ohne mit ihnen zu fusionieren und ihre Autonomie aufzugeben (Werle 2000c).

 

Die relativ niedrigen Transaktionskosten des Internet ermöglichen es auch kleinen Gruppen und einzelnen Personen, aktiv an Kampagnen teilzunehmen, vor allem aber am globalen Informationsaustausch in zahlreichen Newsgroups und Mailing Lists zu partizipieren. Hier bilden sich basierend auf dem Internet demokratische zivilgesellschaftliche Strukturen heraus, in denen der Austausch von Informationen, das Argumentieren im politischen Diskurs und die Offenheit entsprechender Foren neue partizipative politische Gestaltungsmöglichkeiten bieten. Staatliche Akteure sind gezwungen, ihre Aktivitäten transparenter zu machen und sich im "Markt" der Informationen zu behaupten. In Politikfeldern wie der internationalen Umweltpolitik, wo neben den Elementen klassischer Interessen- und Machtpolitik wissenschaftliches Argumentieren und Auseinandersetzungen über unsichere Wissensbestände den Gang der Dinge bestimmen (vgl. Grundmann 1999), bietet das Internet Umweltgruppen neue Möglichkeiten, zumindest indirekt auf die Auseinandersetzungen Einfluss zu nehmen.

 

Es ist speziell die Informationsfunktion des Internet, das heißt die Möglichkeit Informationen zu generieren, bereit zu stellen, zu verteilen und interaktiv zu kommunizieren und möglichst viele kostenlos daran teilhaben zu lassen, durch die dieses Netz die Zivilgesellschaft stärkt, die in diesem Sinne vor allem eine offene Informationsgesellschaft ist.

 

Literatur

Abbate, Janet Ellen, 1999: Inventing the Internet. Cambridge/ MA: MIT Press.

Barber, Benjamin R., 1998: A Place for Us. New York: Hill and Wang.

Berners-Lee, Tim, 1999: Weaving the Web. San Francisco: Harper Collins.

Ceruzzi, Paul E., 1998: A History of Modern Computing. Cambridge, MA: MIT Press.

Cohen, Josua/ Joel Rogers (Hrsg.), 1995: Associations and Democracy. London: Verso.

Conca, Ken, 1996: Greening the UN: Environmental Organisations and the UN System. In: Thomas G. Weiss/ Leon Gordenker (Hrsg.), NGOs, the UN, & Global Governance. London: Lynne Rienner Publishers, 102-119.

CSTB (Computer Science and Telecommunications Board, National Research Council), 1999: Funding a Revolution. Government Support for Computing Research. Washington, D.C.: National Academy Press.

Drake, William J., 1995: The National Information Infrastructure Debate: Issues, Interests, and the Congressional Process. In: William J. Drake (Hrsg.), The New Information Infrastructure. Strategies for U.S. Policy. New York: The Twentieth Century Fund Press, 305-344.

Greve, Dorothee, 1997: Internet und soziale Bewegungen. In: Raymund Werle/ Christa Lang (Hrsg.), Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze. Frankfurt a.M.: Campus, 289-304.

Grundmann, Reiner, 1999: Transnationale Umweltpolitik zum Schutz der Ozonschicht. USA und Deutschland im Vergleich. Frankfurt a.M.: Campus.

Hafner, Katie/ Matthew Lyon, 1996: Where Wizards Stay Up Late. The Origins of the Internet. New York: Simon & Schuster.

Hauben, Michael/ Ronda Hauben, 1997: Netizens. On the History and Impact of Usenet and the Internet. Los Alamitos, CA: IEEE Computer Society Press.

Helmers, Sabine/ Ute Hoffmann/ Jeanette Hofmann, 1998: Internet ... The Final Frontier: Eine Ethnographie. Schlußbericht des Projekts "Interaktionsraum Internet. Netzkultur und Netzwerkorganisation" (Schriftenreihe der Abteilung "Organisation und Technikgenese" am Wissenschaftszentrum Berlin für Sozialforschung FS II 98-112). Berlin: WZB.

Hirst, Paul, 1997: From Statism to Pluralism. London: UCL Press.

Hohn, Hans-Willy, 1998: Kognitive Strukturen und Steuerungsprobleme der Forschung: Kernphysik und Informatik im Vergleich. Frankfurt a.M.: Campus.

Kahin, Brian, 1997: The U.S. National Information Infrastructure Initiative: The Market, the Net, and the Virtual Project. In: Brian Kahin/ Ernest J. Wilson, III (Hrsg.), National Information Infrastructure Initiatives. Vision and Policy Design. Cambridge: MIT Press, 150-189.

Knie, Andreas, 1994: Gemachte Technik. In: Werner Rammert/ Gotthard Bechmann, (Hrsg.), Konstruktion und Evolution von Technik und Gesellschaft (Technik und Gesellschaft, Jahrbuch 7). Frankfurt a.M.: Campus, 41-66.

Kollock, Peter, 1999: The Economies of Online Cooperation : Gifts and Public Goods in Cyberspace. In: Marc A. Smith/ Peter Kollock (Hrsg.), Communities in Cyberspace. London: Routledge, 220-239.

Leib, Volker, 2000: Bürger mit Netzanschluß. Über Partizipation, Internet und "elektronische Demokratie". In: Renate Martinsen/ Georg Simonis (Hrsg.), Demokratie und Technik - (k)eine Wahlverwandtschaft?. Opladen: Leske+Budrich, 363-386.

Leib, Volker/ Raymund Werle, 1998: Computernetze als Infrastrukturen und Kommunikationsmedien der Wissenschaft, In: Rundfunk und Fernsehen 46, 254-273.

Lessig, Lawrence, 1999: CODE and Other Laws of Cyberspace. New York: Basic Books

Mandelbaum, Richard/ Paulette A. Mandelbaum, 1996: The Strategic Future of the Mid-Level Networks. In: Kahin Brian (Hrsg.), Building Information Infrastructure. Issues in the Development of the National Research and Education Network. New York: McGraw-Hill, 59-118.

Norberg, Arthur L./ Judy E. O'Neill, 1996: Transforming Computer Technology. Information Processing for the Pentagon, 1962-1986. Baltimore/ London: Johns Hopkins University Press.

Pierson, Paul, 2000: Increasing Returns, Path Dependence, and the Study of Politics. In: American Political Science Review 94, 251-261.

Quarterman, John S./ Josiah C. Hoskins, 1990: Notable Computer Networks. In: Peter J. Denning (Hrsg.), Computer Under Attack. Intruders, Worms, and Viruses. New York: Addison-Wesley, 20-96.

Rammert, Werner, 1992: Wer oder was steuert den technischen Fortschritt? Technischer Wandel zwischen Steuerung und Evolution. In: Soziale Welt 43, 7-25.

Rheingold, Howard, 1994, The Virtual Community. Homesteading on the Electronic Frontier. New York: HarperPerennial.

Rogers, Juan D., 1998: Internetworking and the Politics of Science: NSFNET in Internet History. In: The Information Society 14, 213-228.

Salus, Peter H., 1995: Casting the Net. From ARPANET to INTERNET and Beyond. Reading: Addison-Wesley.

Scharpf, Fritz W., 1993: Autonomieschonend und gemeinschaftsverträglich: Zur Logik der europäischen Mehrebenenpolitik. MPIfG Discussion Paper 93,9. Köln: Max-Planck-Institut für Gesellschaftsforschung.

Schmidt, Susanne K./ Raymund Werle, 1998: Coordinating Technology. Studies in the International Standardization of Telecommunications. Cambridge, MA: MIT Press.

Smith, Marc A., 1999: Invisible Crowds in Cyberspace: Mapping the Social Structure of the Usenet. In: Marc A. Smith/ Peter Kollock (Hrsg.), Communities in Cyberspace. London: Routledge, 195-219.

Werle, Raymund, 2000a: Technik als Akteur? In: Raymund Werle/ Uwe Schimank (Hrsg.), Gesellschaftliche Komplexität und kollektive Handlungsfähigkeit. Frankfurt a.M.: Campus, 74-94.

Werle, Raymund, 2000b: Innovationspotenziale im Internet - Selbstregelung auf Strukturebene. In: Wolfgang Hoffmann-Riem (Hrsg.), Innovation und Telekommunikation. Rechtliche Steuerung von Innovationsprozessen in der Telekommunikation. Baden-Baden: Nomos, 141-160.

Werle, Raymund, 2000c: The Impact of Information Networks on the Structure of Political Systems. In: Christoph Engel/ Kenneth H. Keller (Hrsg.), Understanding the Impact of Global Networks on Local Social, Political and Cultural Values. Baden-Baden: Nomos, 159-185.

Wetzstein, Thomas et al., 1995: Datenreisende. Die Kultur der Computernetze. Opladen: Westdeutscher Verlag.

 

 

Endnotes

 

1   Für sehr nützliche Hinweise danke ich Ursula Holtgrewe, Renate Mayntz und Lothar Krempel. Dörte Nielandt danke ich für technische Unterstützung.

2   Der geschwungene Pfeil in dem Schaubild drückt aus, dass die technische Architektur auch eine von den anderen Faktoren unabhängige Wirkung auf die Handlungsoptionen ausübt.

3    Entsprechend unwahrscheinlich ist ein kompletter Systemzusammenbruch als Folge lokaler Störungen - eine Systemeigenschaft, die natürlich auch aus militärischer Sicht attraktiv ist.

4   Die Entscheidung der NSF zugunsten von TCP/IP, dessen Tauglichkeit für einen Einsatz in einem großen Netz mit vielen Nutzern und großen zu transportierenden Datenmengen noch nicht getestet worden war, fiel durchaus knapp aus. Von einigen Experten wurden proprietäre Systeme, wie sie etwa von IBM oder Digital Equipment angeboten wurden, eindeutig präferiert (Rogers 1998). Viel spricht dafür, dass nur durch die Förderung der NSF die Nische entstand, in der TCP/IP gegen Marktkonkurrenz überleben und sich weiter entwickeln konnte (CSTB 1999; Werle 2000b).

5   Die Computer Science oder Informatik, wie diese Wissenschaft hierzulande heißt, hat nie den Status einer akzeptierten Formalwissenschaft erreicht (Hohn 1998). Insbesondere die Softwaretechnik ist geprägt von einer Vielzahl von Programmiersprachen, die nach dem Trial and Error Prinzip angewandt werden, weshalb hohe Kooperationsgewinne möglich sind.

6   Programme werden in höheren Programmiersprachen, dem Quellcode, geschrieben und dann mit Compilern in Maschinensprache übersetzt.

7   Das klassische Beispiel für Open Source Software bildet das 1969 bei AT&T entwickelte Betriebssystem UNIX. In den 1970er Jahren wurden die Arbeiten an dem System bei AT&T, vor allem aber an der Universität Berkeley in offener und kooperativer Weise fortgeführt. UNIX wurde zu einem weit verbreiteten Hostsystem für das Internet (Ceruzzi 1998: 281-306; CSTB 1999). Allerdings wurde es in der Folgezeit weitgehend kommerzialisiert, und es verzweigte sich in unterschiedliche proprietäre Systeme.

8   Eine deutsche Version vieler Regeln findet sich unter http://www.ping.at/guides/netmayer/netmayer.html#du. Zu den Grundregeln des Umgangs miteinander gehört z.B. "Du sollst nicht Deinen Computer benutzen, um anderen Schaden zuzufügen" oder "Du sollst nicht anderer Leute geistig Werk als Deines ausgeben".

9   Die Hacker sind antibürokratisch eingestellte Freaks, die das Schreiben von Programmen beherrschen, gern mit Software experimentieren und diese bis an ihre Grenzen testen. Dabei überschreiten sie auch Grenzen und dringen in "geschützte" Systeme ein - allerdings im wesentlichen, um Möglichkeiten und Grenzen der Software auszutesten.

10    Speziell die Optionenvielfalt im Sinne eines Formenreichtums von möglichen Kommunikations- und Austauschbeziehungen, die das Internet allen bietet, die Zugang zu einem vernetzten PC haben, erklärt den Erfolg des Netzes in den letzten Jahren.

11    Today APC is a non-profit association of member and partner networks around the world, committed to making the Internet serve the needs of global civil society ( http://www.apc.org/english/about/history/index.htm).

12   So ist die 1998 gegründete NGO-NET vor allem in Afrika tätig http://www.ngo-net.org.

 


Copyright © 2000 Raymund Werle

No part of this publication may be reproduced or transmitted without permission in writing from the author. 
Jegliche Vervielfältigung und Verbreitung, auch auszugsweise, bedarf der Zustimmung des Autors.

MPI für Gesellschaftsforschung, Paulstr. 3, D-50676 Köln, Germany 

 

   
 
 
   
 

MPIfG:  MPIfG Working Paper 00/6
http://www.mpifg.de/pu/workpap/wp00-6/wp00-6.html
[Zuletzt geändert am 24.08.2007 09:42]