Über 50 Jahre ist inzwischen die Technologie alt, die wir heute das Internet nennen. Doch noch immer fällt es schwer, den Gegenstand Internet genau und umfassend zu bestimmen. Sind es die Übersee-Kabel und Internet-Knotenpunkte, die inzwischen 3,675 Milliarden Menschen weltweit, also etwa 50,1 Prozent der Erdbevölkerung miteinander verbinden und deren direkte Kommunikation untereinander ermöglichen? Dieses Wachstum ist noch nicht an einem Sättigungspunkt angekommen, allein in den letzten fünf Jahren sind 1,58 Milliarden Menschen online gegangen.1
Sind es die veränderten Lebensgewohnheiten und sozialen Praktiken, die sich durch ein ständiges Online-Sein und die allgegenwärtige Präsenz von Smartphones entwickelt haben? Sind neue Märkte und Akteure entstanden und alte verschwunden? Wer das Internet als gesellschaftliche Veränderung begreifen will, muss technische Entwicklungen, ihre sozialen und politischen Bedingungen und deren soziale und politische Effekte gleichermaßen in den Blick nehmen.
In Untersuchungen, die Karl Marx zur Bedeutung technischer Entwicklung für die Veränderung kapitalistischer Produktion anstellte2, beweist er, dass eine Revolution von Arbeitsmethoden in einer Industrie auch ähnliche Transformationen in anderen Industrien auslöst: „Durch Maschinerie, chemische Prozesse und andre Methoden wälzt sie beständig mit der technischen Grundlage der Produktion die Funktionen der Arbeiter und die gesellschaftlichen Kombinationen des Arbeitsprozesses um. Sie revolutioniert damit ebenso beständig die Teilung der Arbeit im Innern der Gesellschaft und schleudert unaufhörlich Kapitalmassen und Arbeitermassen aus einem Produktionszweig in den andern.“ (Marx 1890: 511) Wenn das Internet mit seinen veränderten Kommunikationsmöglichkeiten einen Teil des Dienstleistungssektors in seinen Arbeitsmethoden revolutionierte, dann ging diese Veränderung mit weiteren Transformationsprozessen in beispielsweise produzierenden Industrien einher. Manuel Castells wies in seiner umfangreichen empirischen Untersuchung der informationellen Transformationsprozesse in unterschiedlichen Regionen der Welt bereits im Jahr 2001 darauf hin, dass die Veränderungen in der Informationstechnologie zu einer Produktivitätssteigerung und netzwerkbasierten Globalisierung führen (Castells 2003: 185). Dass dieser Prozess mit einer Umwälzung der Produktionsverhältnisse einhergehen muss, wurde von Sabine Nuss bereits 2006 dargelegt (Nuss 2006: 25ff.). Doch wie genau findet diese Transformation statt? Bei der Entwicklung des Internets kann eine erste Phase in der Zeit von 1962 bis 1992 ausgemacht werden, in der die technische Internet-Infrastruktur und die politischen und sozialen Ausgangsbedingungen der Entwicklung geschaffen werden. Anschließend wird die Technologie kapitalistisch angeeignet. In dieser zweiten Phase von 1993 bis 2003 bildete sich der Dienstleistungssektor im Internet heraus. Es entstanden Geschäftsmodelle und Unternehmen, die ihre Dienstleistungen im Internet darboten und gleichzeitig Blaupause für andere Industrien werden sollten. Die dritte Phase seit 2004 lässt sich als eine Expansionsphase begreifen. Die kapitalistische Produktionsweise hat die neue Technologie erfolgreich adaptiert und kann jetzt im gewohnten Konkurrenzkampf der Kapitale um die Aufteilung der Märkte ringen. Es beginnt eine extensive und intensive Expansion und damit einhergehend werden neue Märkte erschlossen.
Die Entwicklungsphase: 1962 bis 1992
Als am 4. Oktober 1957 die Sowjetunion mit Sputnik 1 den ersten Satelliten erfolgreich in den Orbit schoss, war der Schock groß. Sollte etwa die sowjetische Propaganda mit diesem Ereignis Recht bekommen und die Überlegenheit des marxistisch-wissenschaftlichen Systems bewiesen haben? Dieser Sputnik-Schock hatte weitreichende Folgen. Eine davon ist das Internet.
Der damalige republikanische US-amerikanische Präsident Dwight D. Eisenhower reagierte mit zwei wesentlichen Maßnahmen. Zum einen legte er ein finanzkräftiges Bildungsprogramm auf, das naturwissenschaftliche Disziplinen in die Schulen integrierte und vor allem auch subalterne Klassen mit einbezog. Erst infolge dieses Programms wurde beispielsweise flächendeckend Mathematik, Physik und Chemie in die Lehrpläne der Schulen aufgenommen. Als zweite Hauptmaßnahme wurde ein Programm zur Stärkung der Kooperation und Vernetzung von Forschungsprojekten des US-Verteidigungsministeriums aufgelegt, in dessen Folge 1958 die Advanced Research Projects Agency (ARPA) gegründet wurde, die beim Verteidigungsministerium angegliedert war. Militärische und wirtschaftliche Nutzbarkeit von Forschung sollte vorangebracht werden.3 Um die dafür notwendige Kommunikation aufzubauen, wurde vom Massachusetts Institute of Technology (MIT) und dem US-Verteidigungsministerium ab 1968 das ARPANET entwickelt, eine Kommunikationsstruktur von vier Universitäten4.
Grundlage für die Idee einer solchen vernetzten Kommunikation war das Konzept der Paketvermittlung. Längere Nachrichten werden – im Gegensatz zur bisher üblichen Telekommunikation – in einzelne Datenpakete zerlegt und übermittelt. Ein Paket enthält die Quelle des Paketes, das Ziel des Paketes, die Länge des Datenteils, die Paketlaufnummer und die Klassifizierung des Paketes. (DIMAWEB-Network Solutions e.U. 2015)
Der Sputnik-Schock hatte aber noch weitreichendere gesellschaftliche Folgen. Der beginnende Weltraumwettlauf um die technische Eroberung des Kosmos ging mit einer Technikbegeisterung einher, die den Zeitgeist prägen sollte. In den nächsten Jahrzehnten entstanden Hobbybastlerclubs wie der Homebrew Computer Club (1975) und erste akademische Hackerkulturen (1960er). Beide hatten in der Entwicklung des Personal Computers und der ersten Betriebssysteme einen wesentlichen Anteil. Auch moderne Science-Fiction im Film wie Raumschiff Enterprise (1966) oder 2001: Odyssee im Weltraum (1968) und Autoren wie Stanislaw Lem (Solaris, 1961) waren Teil des Zeitgeists – technopolitische Einflüsse finden sich in der Ideologieproduktion im Osten wie im Westen.5
Auch in anderen Teilen der Welt wurde an ähnlichen Projekten von Kommunikationsnetzwerken gearbeitet. So zum Beispiel Cybersyn in Chile (Medina 2011), das 1971 bis 1973 entwickelt wurde und zur Unterstützung ökonomischer Planung konzipiert war. In der Sowjetunion arbeitete das kybernetisches Institut Kiew von 1962 bis 1970 an dem sowjetischen zivilen Netzwerk mit Namen OGAS, dass die Planwirtschaft – hätte es politische Mehrheiten für diese Technologie gegeben – mit Sicherheit revolutioniert und effektiviert hätte. (Peters 2016).6
Dass sich ausgerechnet aus dem ARPANET einmal „das Internet“ ergeben würde, war zum damaligen Zeitpunkt nicht absehbar. Eine der Gründungsideen des ARPANET war, ein Kommunikationsnetzwerk zu schaffen, das im Fall eines nuklearen oder ähnlich desaströsen Angriffs die Kommunikationsfähigkeit in den USA aufrechterhalten kann. Es ging also um ein Kommunikationssystem, dass durch seine Redundanz besonders robust war. So beschreibt Paul Baran, einer der an der Konzeption des Internets beteiligten Ingenieure, im Jahr 1964: „Wir werden bald in einer Zeit leben, in der wir die Überlebensfähigkeit an jedem einzelnen Punkt nicht mehr sicherstellen können. Doch wir können Systeme entwickeln, in denen der Feind in eine Systemzerstörung mit einkalkulieren muss, n von n Standorten zu zerstören. Wenn n ausreichend groß ist, können wir hoch überlebensfähige Systemstrukturen erschaffen.“ (Baran 1964, Übers.: S.L.) Als die ARPANET-Entwickler Robert Kahn und Vinton Cerf 1971 bis 1973 das Internet-Protokoll7 konzipierten, das die grundlegende Architektur des Internets festlegte, entschieden sie sich aus genau diesem Grund für eine offene Architektur.
Dieses Protokoll – TCP/IP – legte die eigentlichen Grundmauern für das, was wir heute Internet nennen:
– Netzwerk-Konnektivität: Jedes Netzwerk kann sich mit dem Netzwerk verbinden, egal ob Kabel, Funk, Draht oder Satellit, lokal oder entfernt.
– Verteiltes Netzwerk: Es gibt keine zentrale administrative Kontrolle.
– Fehlertoleranz: Verlorene Pakete werden wiederholt übermittelt.
– Unabhängigkeit: Das Netzwerk muss sich nicht verändern, wenn es sich mit anderen Netzwerken verbinden will. Jedes Netzwerk muss selbständig funktionieren, bevor es sich mit dem Internet verbinden kann.
Es dauerte jedoch bis 1983, bis TCP/IP in der heute noch verbreiteten Version und Stabilität entwickelt war und es dauerte weitere Jahre, bis es sich als Standardprotokoll durchsetzte.8
Das Internet-Standardprotokoll TCP/IP ist im Wesentlichen verantwortlich für einige Grundeigenschaften, die mit dem heutigen Internet verbunden sind: Offene Architektur und Universal Access, also dass von jedem Punkt des Netzwerks auf das gesamte Netzwerk ohne administrative Beschränkung zugegriffen werden kann.9 Doch allein ein Kommunikationsprotokoll, das eine enorme Skalierung bis zur globalen Kommunikation und darüber hinaus ermöglicht, macht noch kein Internet. Dafür braucht es zusätzlich Hardware, Software und eine konkrete Verbreitung. Wenn wir uns die Entstehungsgeschichte des Internets vergegenwärtigen wollen, müssen wir die parallelen Entwicklungen der Computerhardware, aber auch der Software und gesellschaftliche Bedingungen mit in den Blick nehmen.
Die Entwicklung des Universitätsnetzwerks eröffnete die Möglichkeit eines kommerziellen Internets. Ausgelöst durch das ARPANET, was nur Hochschulen miteinander vernetzte, die an militärischer Forschung für das Verteidigungsministerium involviert waren, hatten auch andere Universitäten ein massives Interesse, an dieser Vernetzung teilzunehmen – auch wenn sie keine Verbindung zum Verteidigungsministerium hatten. So wurde das Computer Science Network (CSNET) an das ARPANET angeschlossen. Um den Weg für ein weiteres Wachstum freizumachen, trennte das US-Militär 1983 das militärische Netz vom ARPANET. Ab 1984 wurden erstmals Universitäten außerhalb der USA mit dem CSNET verbunden: zuerst Israel, dann Korea, Australien, Kanada, Frankreich, BRD und Kanada. Insgesamt waren schließlich über 180 Institutionen vernetzt. Das Folgeprojekt, das National Science Foundation Network (NSFNET) wurde 1985 gestartet. Schrittweise zog sich das Militär aus der Finanzierung zurück10 (Leiner u.a. 2012). Ab 1995 wurde das NSFNET schließlich komplett kommerziell betrieben und vergab Aufträge zum Betrieb und zur Entwicklung der Infrastruktur an Firmen wie IBM, MCI, Merit Network Group. Firmen wie beispielsweise Cisco waren Ausgründungen von damals involvierten Ingenieuren, die später weltweit führende Anbieter von Hardwareprodukten wie beispielsweise Routern wurden.11
Doch auch bei der Softwareentwicklung wurden in der Zeit Meilensteine gesetzt. Das erste Unix-Betriebssystem wurde 1971 entwickelt und so konzipiert, dass es auf verschiedener Hardware laufen, verschiedene Aufgaben parallel absolvieren und unterschiedliche NutzerInnen zeitgleich daran arbeiten konnten. Es bestand eher aus vielen kleinen Programmen, die modular zusammengesetzt werden konnten, war somit wesentlich flexibler und schlanker als vergleichbare Entwicklungen. Unix war auch in der Programmiersprache „C“ geschrieben, die weit verfügbar und leicht änderbar war. Aufgrund dieser Eigenschaften konnte sich dieses Betriebssystem sehr schnell durchsetzen. Bis heute basiert ein Großteil der gängigen Betriebssysteme auf Unix und werden daher als unixoid bezeichnet. Dazu gehören Mac OSX, Android aber auch Linux.
Ein Problem in der Softwareentwicklung war, dass EntwicklerInnen, wenn die Firma, für die sie arbeiteten, ein Projekt nicht weiterführen wollte, aufgrund von Copyrightbeschränkungen nicht außerhalb der Firma an der von ihnen erfundenen Software weiterarbeiten durften. So konnte es passieren, dass jahrelange Arbeit über Nacht eingestellt wurde, weil ein Firmenzweig verkauft oder seine Prognosen für unwirtschaftlich gehalten wurden. Um dieser Situation zu begegnen, gründete der Programmierer Richard Stallman im Jahr 1983 das GNUProjekt, um das herum sich in der Folge die Freie-Software-Bewegung herausbildete. Unter dem Titel „GNU’s Not Unix“ lud er Programmierer und Interessierte dazu ein, gemeinsam ein Unix-kompatibles Betriebssystem neu zu schreiben, um Unix auf diese Art und Weise von seinen Copyrightbeschränkungen zu befreien, sodass NutzerInnen die Freiheit haben, den Programmiercode miteinander zu teilen, ebenso wie die Software, diese zu verändern oder in modifizierter Version neu zu veröffentlichen. Aus dieser Bewegung heraus entstanden verschiedenste Initiativen: eine Menge freier Software, wie beispielsweise der Webbrowser Firefox, das Betriebssystem Linux, die weitverbreitete Webserversoftware Apache und Datenbanken wie MySQL aber auch andere daran angelehnte Lizenzmodelle wie Open-Source-Lizenzen oder auch später die Creative-Commons-Lizenzen, die diese Idee auf die Nutzung von Medien (statt Software) übertragen.
Die Entstehung des Computers für den privaten Gebrauch (PC) ist eng an eine Bastlerinitiative in Sillicon Valley geknüpft: den Homebrew Computer Club. Was als Selbsthilfeinitiative gestartet war, um erste verfügbare Heimcomputer zu bedienen, wurde mit der Zeit ein Netzwerk, aus dem etliche Firmengründungen hervorgingen, die deren Ideen und Diskussionen mitnahmen.12 Das Internet spielte in dieser Zeit bei den PCs noch eine untergeordnete Rolle.
Gegen Ende der ersten Phase, 1990, kamen zwei Entwicklungen zusammen, die für den weiteren Verlauf einschneidend waren: Microsoft stellte sein Betriebssystem vor, das auf einer einfacheren Hardware basierte, die leicht zu replizieren und dadurch nicht auf einen Hardwarehersteller festgelegt war. IBM wiederum konnte preiswerte Computer als Stapelware produzieren. Diese wurden mit dem Betriebssystem Microsoft versehen. In ihrer Funktionalität waren diese Heim-PCs zwar nicht so ausgereift wie die in der Zeit verfügbaren Apple Computer, dafür aber weitaus preiswerter. Gleichzeitig wurde das World Wide Web entwickelt, was den Zugang der Welt zum Internet faktisch ermöglichte. Der Heimcomputer traf auf das Internet.
Um den Informationsaustausch in unterschiedlichen Netzwerken zu erleichtern, entwickelte der britische Informatiker Tim Berner-Lee das World Wide Web (WWW).13 Dazu gehörte das zugrunde liegende Hypertext-Transfer-Protokoll HTTP, die dazu passende Seitenbeschreibungssprache HTML, ein erster rudimentärer Webbrowser und die erste Version eines Webservers. 1991 veröffentlichte er diese Komponenten zusammen als WWW – explizit patentfrei.14 Im Gegensatz zu vergleichbaren parallelen Entwicklungen war die Patentfreiheit wohl der entscheidende Grund, warum das HTTP-Protokoll sich so massiv durchsetzte. Die Idee des WWW war simpel: es gibt unidirektionale Links, die ohne Zutun der Zielperson gesetzt werden können und auf diese Art verschiedene Informationen miteinander verbinden. Das HTTP-Protokoll war nichts anderes, als mithilfe des Browsers Informationen von anderen Webservern anzufordern. Durch die gemeinsame Auszeichnungssprache (HTML) sind alle Informationen in bestimmter Art und Weise gegliedert. Damit ein Server direkt angesprochen werden kann, bedarf es einer einheitlichen Adressierung, aus der sich später die URL entwickelte, das, was im Webbrowser in die Adresszeile eingegeben wird. Im Jahr 1994 wurde von Berner-Lee zur Koordinierung der Weiterentwicklung das World-Wide-Web-Konsortium gegründet, das W3C. Bis heute werden alle weiterentwickelten Standards des WWW vom W3C diskutiert, geprüft, abgewogen und schließlich auch beschlossen und patentfrei veröffentlicht. So wurde 2014 der neue Standard HTML5 beschlossen, der beispielsweise die Unterstützung eines video-tags beinhaltet. Damit ist es jetzt möglich, Videos direkt aus dem Webbrowser abzuspielen ohne Nutzung eines Plugins.15
Diese technischen Entwicklungen fanden zu einer Zeit statt, als der Kalte Krieg mit dem Niedergang der realsozialistischen Staaten beendet war und die Phase der globalen wirtschaftlichen Expansion kapitalistischer Unternehmen anbrach. Die US-Regierung sah jetzt das wirtschaftliche Wachstumspotenzial des Internets und verabschiedete 1991 den „High Performance Computing Act“, der die National Information Infrastructure Initiative (NII) beinhaltete.16 Für die entstehende sogenannte New Economy, die sich um die neuen digitalen Technologien und vor allem das Internet herum bildete, sollten ausländische Märkte geöffnet und eine „Kooperation zwischen Regierungen, Wissenschaft
und Industrie“ermöglicht werden (Spicer: 1997). Das Programm sah konkrete Infrastruktur-Ausbauinitiativen vor, die in der Öffentlichkeit als Datenautobahnen bezeichnet wurden, aber auch Förderung zur Entwicklung von Computertechnologie und Software. Die neoliberale US-Wirtschaftspolitik zeichnete sich somit nicht durch einen „Rückzug“ des Staates aus, sondern auch durch eine gezielte Förderpolitik.
Inzwischen spielten viele neue EntwicklerInnen und Institutionen eine Rolle, die nicht mehr Teil der ursprünglichen US-amerikanischen Wissenschaftscommunity waren. Das Internet trat jetzt in eine massive Wachstumsphase ein. Um sicherzustellen, dass gemeinsame Standards erhalten bleiben und eine offene und faire Gestaltung des Internet vorangetrieben wird, die eine akademische, private und kommerzielle Nutzung ermöglicht, wurde 1991 von Robert Kahn und Vint Cerf die Internet Society (ISOC) gegründet, eine Non-Profit-Organisation, die heute über 80.000 Mitglieder zählt.17 Sie umfasst verschiedenste Arbeitsgruppen zur Abstimmung von technischen Standards, Regulierungsbestrebungen, Internet-Architektur, und Forschung zum Internet. Hier wurde beispielsweise nach jahrelanger Abwägung und Diskussion die Einführung des neuen Standards Ipv6 beschlossen. Denn aufgrund des permanenten Wachstums des Internets gab es keine verfügbaren IP-Adressen aus dem bisher üblichen Adressbereich Ipv4 mehr – mehr als 4 Milliarden IP-Adressen waren mathematisch nicht möglich und es hätten keine neuen Netzwerkadressen mehr hinzugefügt werden können.
Um einen weiteren Ausbau des Internets zu ermöglichen, wurde Ipv6 eingeführt, das den Adressbereich auf etwa 340 Sextillionen erweitert. Seit 2012 wird der neue Standard Ipv6 parallel zu Ipv4 unterstützt und soll perspektivisch Ipv4 ablösen. Als zweite regulierende Organisation wurde im Jahr 1998 die Internet Corporation for Assigned Names and Numbers (ICANN) gegründet, die auch eine internationale Non-Profit-Organisation ist. Sie koordiniert die Vergabe von einmaligen Namen (URL, zum Beispiel: www.prokla.de) und dazugehörigen Adressen im Internet (217.160.231.101), die über das Adressfeld im Webbrowser aufgerufen werden können. Die ICANN hat in jüngerer Zeit beispielsweise entschieden, dass neue Top-Level-Domains schrittweise eingeführt werden. Dadurch ist es heute möglich, Adressen wie prokla.web zu registrieren.
Die regulierenden Organisationen dienen einerseits dem Erhalt der Infrastruktur mit der ursprünglichen Idee einer offenen Architektur, waren aber gleichzeitig auch Organisationen, die eine Verantwortungsübergabe von militärischer und staatlicher Kontrolle auf den zivilen Sektor ermöglichten. In der Praxis gingen die Gründungen auf einige Internet-Pioniere zurück, die als Privatpersonen außerhalb ihrer militärischen Verpflichtung NGOs gründeten und dort die gleichen koordinierenden Aufgaben übernahmen. Im Laufe der Zeit wurden diese Organisationen geöffnet, um eine breite Akzeptanz, Zusammenarbeit und Durchsetzungskraft zu ermöglichen. Selbstverständlich sind diese Organisationen heute auch Orte politischer Aushandlung: Um die Einführung eines verschlüsselten Protokolls zur Absicherung vor Überwachung wird hier ebenso gerungen wie um einen Copyrightschutz auf Protokollebene.
Dienstleistungssektor im Internet: 1993 bis 2003
Erste direkte Folge der National Information Infrastructure Initiative war die Entwicklung des ersten populären Webbrowsers, Mosaic. Dieser wurde am National Center for Supercomputing Applications (NCSA) entwickelt. Mosaic ist Teil des Internet-Ökonomie-Booms der 1990er. Durch den grafischen Browser waren Dienstleistungsangebote vergleichsweise einfach zugänglich – der Browser war einfach zu installieren und zu bedienen; das Internet bewegte sich von reinem Text hin zu grafischer Oberfläche.
Kurz nach der Entwicklung des Mosaic-Browsers gründete einer der Hauptentwickler die Firma Netscape Communications, die den Nachfolge-Webbrowser Netscape-Navigator veröffentlichte. Ein Jahr später wurde der Internet-Explorer von Microsoft als eigene Weiterentwicklung des Mosaic-Browsers veröffentlicht. Der im Anschluss folgende Kampf um die Marktanteile der Webbrowser wurde unter dem Namen Browserkrieg bekannt: Hier entstand das Leitprinzip der Internetfirmen der Zeit: „Get large or get lost“. Denn Unternehmen wie das neu gegründete Netscape Communications basierten auf Risikokapital und deren Investoren setzten auf eine Kapitalisierung in der Zukunft. Diese war aber nur als Monopol für einen bestimmten Service denkbar, da sich kostenpflichtige Endnutzung nicht durchsetzen lässt, solange es kostenlose Alternativen gibt. In der Konsequenz gingen diejenigen Unternehmen schnell Konkurs, die ihre Marktanteile nicht sichern konnten, unter anderem Netscape. Als der Webbrowser schon weit abgehängt war, gründete das Unternehmen die Stiftung Mozilla und veröffentlichte die Software unter einer Open-Source-Lizenz. Die Entwicklung des Mozilla Webbrowsers, der heute als Firefox weltbekannt ist, wurde so sichergestellt. Als freie Software war es möglich, die Entwicklung des Browsers weiterzuführen und eine aktive Community aufzubauen und zu integrieren.
1995 veröffentlichte Microsoft sein Betriebssystem Windows 95 mit einem bis dato einmaligen Medienspektakel. Windows 95 integrierte nicht nur standardmäßig TCP/IP und ermöglichte einen einfachen Zugang zum Internet, sondern hatte auch den eigenen Webbrowser Internet Explorer integriert und konnte dadurch den Browserkrieg für sich entscheiden. Microsoft nahm mit seinem Betriebssystem erstmals private EndnutzerInnen als KundInnen mit preiswerten PC-Alternativen für den Heimgebrauch ins Visier und avancierte in kürzester Zeit zum Marktführer.
Ab Mitte der 1990iger Jahre boomen die Geschäfte, die sich im Bereich der Informationstechnologie bewegen. Viele der neu entstehenden Unternehmen sind genau genommen keine Technologieunternehmen, sondern operieren im Dienstleistungssektor. Dazu gehörte eine ganze Gruppe von klassischen Handelsunternehmen: Sie verkaufen ihre Dienstleistungen lediglich über das Internet, haben also die Kundenkommunikation ins Internet verlagert. Beispiele für solche Dotcom-Firmen waren amazon.com (Online-Buchhandel), eToys.com(SpielzeugHandel), lastminute.com (Reisen) und eBay.com (Auktion). Eine zweite Gruppe von Unternehmen entwickelte sich in der Kategorie Unterhaltung. Hier entstanden Portale mit ersten Streamingangeboten oder auch Nachrichten und anderen Services, die dann durch Werbeanzeigen Geldeinnahmen generierten. Diese Angebote erweiterten ihre Services bald um E-Mail, Softwareangebote und sogenannte Directory Listings – vergleichbar mit Wegweisern im Internet. Beispiele für solche Unternehmen sind Yahoo und GeoCities. Auch InternetService-Provider boomten noch in dieser Zeit mit Anbietern wie AOL, Lycos und Tiscali. Schließlich gibt es noch den Bereich von Finanzdienstleistungen, der berühmteste Vertreter ist Paypal.
Durch die Vielzahl von Websites, die in kürzester Zeit im WWW verfügbar waren, entsteht ein weiterer Service: die Online-Suche. Unternehmen wie Google entwickelten diese als Produkt und waren das erste Unternehmen, dass ein lukratives Anzeigegeschäft betreiben und darüber ihre Einnahmen generieren konnte. Die einzelne Werbung, die Unternehmen durch Google schalten lassen, ist dabei wesentlich preiswerter als in der analogen Welt, wie beispielsweise auf Plakatwänden oder in Printmedien. Zusätzlich bietet die Online-Werbung eine Möglichkeit der genaueren Abrechnung: Werbetreibende zahlen pro Klick – ein wesentlicher Vorteil gegenüber der Werbung über Plakatwände, wo die KostenNutzen-Abwägung schlecht überprüfbar ist. Bis heute stammen 90 Prozent aller Einnahmen von Google aus dem Anzeigengeschäft im Internet.18
Die neuen Geschäftsmodelle verbreiten sich in kürzester Zeit weltweit. Durch die National Information Infrastructure Initiative wurde auch China im Jahr 1994 ans Internet angeschlossen und auch hier entstehen vergleichbare Dienstleistungsunternehmen wie Baidu (2000) und Alibaba (1999), die eine Übersetzung der Konzepte Online-Handel, Onlinesuche und Anzeigemarkt auf den chinesischen Markt vornehmen.
Grundlagen für diesen Boom und die Herausbildung eines Dienstleistungssektors im Internet waren im Wesentlichen drei Faktoren:
1. Niedrigzinspolitik in den USA: Zwischen 1995 bis Mitte 1999 verfolgte Alan Greenspan, Vorsitzender der US-Notenbank, eine Niedrigzinspolitik, die zum Ziel hatte, die Kreditaufnahmen von Unternehmen und Privathaushalten voranzutreiben. Dieser „Börsenkeynsianismus“, wie ihn Robert Brenner bezeichnet, ist eine wesentliche Ursache für ein übertriebenes stürmisches Wachstum der Investitionen im Sektor der Informationstechnologie. (Brenner 2004: 6) Die Unternehmen aus dem Bereich der Informationstechnologie hatten einen extrem leichten Zugang zu Kredit, der beispielsweise mit der firmeneigenen Börsenkapitalisierung besichert wurde. Es war zum Höhepunkt dieser Spekulationsblase sogar möglich, große Kreditsummen für Geschäftsmodelle zu erhalten, die keine Profite, nicht einmal Umsatz generierten.
2. Offene Architektur, Freie Software und patentfreie Protokolle: Alle OnlineProdukte dieser Zeit basierten auf der offenen Architektur des TCP/IP-Protokolls und auf den in der Public Domain lizenzierten Standards des WWW . Die meisten Firmen bauten ihre Infrastruktur auf Server mit freier Software wie beispielsweise Linux-Computern und dem Webserver Apache. So betrieb beispielsweise Google im Jahr 2005 etwa 250.000 Linux-Computer, um 3.000 Suchanfragen pro Sekunde bearbeiten zu können. Die Wahl von Linux-Computern war naheliegend: das Betriebssystem kann auf die spezifischen Bedürfnisse zur besseren Indexierung angepasst werden – eine eigene Entwicklung hätte Jahre Entwicklungszeit bedeutet. Bis heute setzt Google auf Open-Source-Software. So finanziert der Google-Nachfolger Alphabet heute viele Open-Source-Softwareprojekte, wie beispielsweise das Android-Betriebssystem. Es wurde von Google entwickelt, aber als Open-Source-Software veröffentlicht, sodass eine Entwicklercommunity darum entstehen konnte – und das Betriebssystem heute weltweit die größte Verbreitung hat.
3. Staatliche Investitionen in Infrastruktur: Die Bedeutung staatlicher Investition und die Planung und gezielte Förderung von Technologie zeigt sich im High Performance Computing Act von 1991. Ohne den Ausbau der Glasfaser-Infrastruktur und die finanzielle Förderung zur Entwicklung von Computertechnologie und Software, hätte eine Verbreitung des Internets in der Geschwindigkeit und unter breiten Schichten der Bevölkerung nicht stattfinden können. Offensichtlich wird hier, dass die staatlichen Maßnahmen das Ziel hatten, Akkumulation unter den Bedingungen der Informations- und Kommunikationstechnologien zu ermöglichen (Nuss 2006; Barbrook/Cameron 1995).
Die Spekulationsblase der New Economy platzte im Jahr 2000, doch der temporäre Fall der Aktien war vor allem ein purgatives Moment. Die Internetunternehmen, die in dieser Phase des Abflauens kein Liquiditätsproblem hatten, weil sie genügend eigenes Kapital oder verbindliches Fremdkapital besaßen, konnten in den folgenden Jahren ihre Marktposition stärken und weiterentwickeln: Google, Amazon, eBay, Paypal sind als unternehmerische Sieger aus dieser Zeit hervorgegangen.
Kurz nach dem Platzen der Dot-Com-Blase wurde vom Programmierer Bram Cohen im Jahr 2001 ein Protokoll entwickelt, das weitreichende Folgen hatte: BitTorrent. Auch BitTorrent war von Anfang an unter einer freien Softwarelizenz veröffentlicht. Darum stand einer Implementierung und Anpassung nichts im Wege. BitTorrent ist das ideale Protokoll, um große Medieninhalte mit vielen Menschen auszutauschen und hat in der Distribution von großen Dateien wie Software und Filmdaten eine enorme Bedeutung. Eine auszutauschende Datei wird dabei nicht mehr wie beim HTTP-Protokoll auf einen zentralen Server abgelegt und dort heruntergeladen, sondern gleichzeitig bei allen verfügbaren NutzerInnen, die diese Datei parallel anbieten können, herunter- und hochgeladen. So kommt BitTorrent bei Podcasting Software zum Einsatz, bei der Audiosendungen abonniert werden, aber auch in einigen Online-Broadcasting-Angeboten (Webradio, Web-TV). Auch amazons Cloud-Service für den Privatanwender oder Facebook19 nutzen BitTorrent Protokolle. BitTorrent war auch zentral für das massive Filesharing von Film-, Musikdaten und Software, wie es beispielsweise über Portale wie thepiratebay.org realisiert wurde. Im Jahr 2004 wurde 25 Prozent des gesamten Internetdatentransfers über BitTorrent realisiert, wovon ein Großteil vermutlich Filesharing-Netzwerken zuzuordnen ist. Denn nachdem die Kriminalisierungsoffensiven im Jahr 2006 gegen die Filesharing-Anbieter wie thepiratebay.org aber auch gegen die einzelnen NutzerInnen intensiviert wurden, sank der Anteil des BitTorrent-Netzwerkverkehrs auf 5% (2015).20
Der Auseinandersetzung um Copyright und Nutzungsrechte kommt in der Betrachtung des Internets eine besondere Bedeutung zu, auf die hier nicht detailliert eingegangen werden kann.21 Es sei auf die Arbeiten von Sabine Nuss (2006) an dieser Stelle verwiesen, die die Hauptaufgabe des Staates im informationellen Kapitalismus als Garant des Privateigentums beschreibt. Vor dieser Analyse sind die massiven Repressionsbestrebungen staatlicher Institutionen weltweit im Kampf gegen Piraterie geistigen Eigentums einzuordnen (Nuss 2006: 221). Es gab und gibt bis zum heutigen Tag erhebliche Auseinandersetzungen um Zugangsmöglichkeiten, Patente sowie Nutzungs-, AutorInnen- und ProduzentInnenrechte, die sich durch sämtliche Industrien ziehen – von der Pharmaindustrie, über die Agrarindustrie, die Unterhaltungs- und Softwareindustrie bis in die Produktionsindustrien. In all diesen Auseinandersetzungen stellt sich die Frage: wie wird geistiges Eigentum und das Recht auf Zugang zu Wissen und Information in der digitalen Gesellschaft miteinander ins Verhältnis gebracht? Dabei stehen Piraterie und Unternehmensinteressen oftmals in einem gegenseitigen parasitären Verhältnis. Ohne die massive Verbreitung von illegalen Kopien der Installationsdateien des Windows-Betriebssystems hätte sich das Betriebssystem nicht in der Geschwindigkeit den Markt von Entwicklungsländern dominieren können. Ohne die massive Verbreitung von Filmkopien durch Portale wie thepiratebay.org hätten kommerzielle Anbieter wie Netflix nicht auf die durch die Filmpiraterie neu entstandenen Konsumgewohnheiten mit ihren Geschäftsmodellen aufsetzen können. Unternehmen wie Netflix haben von der Kriminalisierung von Online-Angeboten wie thepiratebay.org erheblich profitiert (Piller 2006 und Elert/Henrekson/Wernberg 2016).
Die Expansionsphase seit 2004
Ab 2004 steht vor allem Usability im Zentrum technischer Entwicklung, die Benutzbarkeit von Websites und Services für sogenannte EndnutzerInnen. Der Fokus liegt darauf, wie sich ein Service für EndnutzerInnen „anfühlt“. Diese Designoffensive von WWW-basierten Diensten wurde 2004 erstmals mit dem Begriff „Web 2.0“ bezeichnet. Mit zunehmendem Aufkommen von Smartphones (seit 2007) und später auch Tablets und vergleichbaren Geräten rückte zusätzlich die Frage nach der Interoperabilität der Dienste in den Mittelpunkt des Entwicklungsinteresses: Wie kann ich den Dienst in der Benutzung durch mehrere Geräte handhaben?
In den kommenden Jahren zeichnen sich verschiedene Ansätze der dominierenden Technologieunternehmen ab, die als Strategien intensiver und extensiver Expansion eingeordnet werden können. Vier Strategien werden hier beispielhaft vorgestellt.
Seit 2006 Intensive Expansion: Gated Communities
Communities waren von Beginn an im Internet ein wichtiges Element. Waren es anfänglich die Communities der WissenschaftlerInnen, die sich austauschten, so waren es später HackerInnen, die mit der neuen Technik experimentierten. Die Möglichkeit, sich frei nach den eigenen Interessen in einem globalen Netz zu assoziieren, war für sehr viele Menschen der Grund, warum das Internet sie so begeisterte. Communities wie wikipedia.org, in der seit 2001 über 39,5 Millionen Artikel in fast 300 Sprachen verfasst wurden und die allein im deutschsprachigen Wikipedia etwa 167.000 registrierte Autoren hat22, sind soziale Formationen, die vor dem Internet nicht vorstellbar waren.
Im zunehmenden Kampf um NutzerInnen, die den Aktienwert eines InternetUnternehmens wesentlich mit bestimmen23, hat sich seit 2006 neben dem offensiven Werben um neue NutzerInnen ein zweites Konzept durchgesetzt: die gated community. Wer eine Community verlassen will, dem entstehen Wechselkosten, die NutzerInnen nicht ohne Weiteres eingehen. Diese Wechselkosten möglichst hochzuhalten, ist Ziel dieser Strategie, für die Facebook (seit 2006 für sämtliche NutzerInnen geöffnet) und in liberaler Variante auch Google (seit 2006) stehen.
Facebook war von Anfang an auf diese Strategie ausgerichtet. Wer sich einmal in Facebook einloggt, kann sämtliche Bedürfnisse innerhalb des Netzwerkes befriedigen: Nachrichten, Chats und persönliche Nachrichten (E-Mail), Apps, Spiele, eigene Inhalte wie Texte, Fotos teilen und mehr. Inhalte sind ohne Login schlecht oder gar nicht abrufbar, sodass eine Motivation geschaffen wird, sich zu registrieren und einzuloggen. Wer einmal dabei ist, wird angehalten, seine Community mit reinzuholen. Wer neu ist, wird mithilfe von Fragen und Wahrscheinlichkeitsrechnungen ziemlich schnell mit Bekannten und Freunden vernetzt, denn nichts hat mehr Bindungskraft als die eigene Communitiy. Wer die Community verlassen will, dem wird es schwer gemacht. Die bei Facebook hinterlassenen Daten können nicht in andere Plattformen oder zu anderen Dienstleistern mitgenommen werden, die Fotos, die Freunde, die Geburtsdaten, die Nachrichten und Telefonnummern – die Wechselkosten sind am Ende sehr hoch. Einnahmen generiert Facebook über Werbung von Anzeigekunden – aber auch über Anzeigen, die die NutzerInnen selbst schalten, um die Reichweite ihrer Beiträge zu erhöhen. Die Besonderheit von Facebook ist, dass die NutzerInnen Privatpersonen sind, aber auch KollegInnen, KleinunternehmerInnen, Tendenzbetriebe, NGO und Unternehmen gleichermaßen. Werbung ist für jedermann zugänglich – Privatpersonen können mit wenigen Euro Investition für die weitere Verbreitung ihrer Beiträge sorgen, ebenso wie NGOs oder Unternehmen.
Im Gegensatz zu Facebook gibt es bei Google keine Zugangsbeschränkung. Die meisten Google Services – wie die Suchmaschine, Google Maps und Youtube – sind auch ohne Google-Konto nutzbar ist. Googles gated community wird darüber realisiert, dass alle populären Dienstleistungen im Internet aufgekauft
wurden, sodass NutzerInnen fast wie von selbst immer bei Google-Services landen. Googlemail integriert sich wunderbar mit der Google Suche, mit dem Google Kalender, mit Google Maps und mit Youtube. Man kann sogar kollaborativ mit Textverarbeitungsprogrammen arbeiten und Dateien gemeinsam in einer Cloud nutzen.24 Im Gegensatz zu Facebook erlaubt Google weitestgehend Datenportierung und unterstützt ebenso offene Formate.
Seit 2007 Intensive Expansion: neue Lebensbereiche
Im Jahr 2007 veröffentlichte Apple mit dem iPhone das erste Smartphone. Das Smartphone ersetzt den Computer nicht, sondern ergänzt ihn um mindestens ein zweites Gerät. Der damals weit abgeschlagene Konzern konnte sich wieder zu einem der führenden Technologieunternehmen entwickeln. Eine neue Art von Internetnutzung wird mit der zunehmenden Verbreitung dieser mobilen Geräte geschaffen, die kurz darauf von Google (Android) ebenso angeboten werden. Das Internet verlässt das Arbeitszimmer und wird zum permanenten Lebensbegleiter. Mit dem Smartphone dringen auch die Dienstleistungsunternehmen in diese Räume vor. Durch das Internet der Dinge, bei dem auch andere Geräte in die Kommunikation über das Internet mit einbezogen werden, findet eine weitere Ausweitung in vormals dem Sozialen vorbehaltene Bereiche des Lebens statt.25
Seit 2010 Intensive Expansion: Kontrolle über Daten und Software
Seit ungefähr 2010 setzt sich das Prinzip „Software as a Service“ zunehmend durch. Statt dem Endnutzer eine eigenständig lizenzierte Kopie der Software zur Verfügung zu stellen, wird die Software nur noch geleast. Sie verbleibt auf dem Server des Dienstanbieters und kann für eine gewisse Zeit (meistens kostenpflichtig) benutzt werden. Bedingung dafür ist das Vorhandensein einer BreitbandInternetverbindung, denn dieses Modell basiert auf centralised computing, heute meistens Cloud Computing genannt. Ein Großteil der Datenverarbeitung findet nicht mehr auf dem Computer der EndnutzerInnen, sondern auf dem Server des Dienstanbieters statt.26 Die unternehmerischen Vorteile liegen auf der Hand: ein Großteil von KundInnensupport entfällt, weil der Anbieter für den optimalen Betrieb der Software selbst sorgen kann, Softwarepiraterie entfällt, weil keine Kopien der Software ausgeliefert werden, die Nutzung der Software kann wesentlich besser evaluiert werden, weil alle Nutzungsdaten vorliegen. Derselben Logik folgen die Streamingangebote im Unterhaltungssektor. Wo vorher Filme getauscht wurden, wird jetzt über einen Streaminganbieter ein Film über das Internet beim Dienstanbieter selbst angesehen. Die NutzerInnen brauchen zwar keinen Festplattenplatz mehr, um Filme zu speichern, dafür brauchen sie eine hochbandbreitige Internetverbindung, um den Film zu sehen und verlieren jeden Zugang zum oftmals bezahlten Film, wenn sie die Diensteanbieter verlassen möchten. Sie hinterlassen zusätzlich beim Anbieter eine Menge Daten über das Nutzungsverhalten: wann werden welche Filme angesehen, wann ist welche Ankündigung interessant oder wird weggeklickt?
Seit 2013 Extensive Expansion: Free Basics
Wer sich die weltweiten Statistiken zur Internetnutzung ansieht, kann sich ausrechnen, dass in den vergangenen 5 Jahren 1,59 Milliarden Menschen zusätzlich online gegangen sind. Die Hälfte der Weltbevölkerung ist heute vernetzt. Doch die regionale Verteilung ist sehr unterschiedlich. Darum zeigt ein Blick in die Länderstatistiken ein differenzierteres Bild. China hat beispielsweise 52,3 Prozent der eigenen Bevölkerung vernetzt. Aber China schottet seinen regionalen Markt durch die strengen Zensurbeschränkungen effektiv vor westlichen Investoren ab. Nachdem amazon auf dem chinesischen Markt gescheitert ist, der chinesische Branch von Yahoo von chinesischen Giganten Alibaba gekauft wurde und Google sich nach einigen Versuchen aus dem chinesischen Markt zurückgezogen hat, scheinen Investitionen dort nicht gewinnbringend zu sein. Der zahlenmäßig zweitgrößte asiatische Markt, Indien, hat zwar bereits 462,1 Millionen InternetnutzerInnen, obwohl bisher nur 36,5 Prozent der Bevölkerung online sind.27
Mark Zuckerberg versammelte deshalb unter dem Namen Internet.org sechs Internet-Technologieunternehmen aus der Mobilfunkbranche, um genau die arme Weltbevölkerung zu erreichen. Da Menschen in vielen Ländern zu arm sind, um sich Computer oder Internetzugang leisten zu können, stellt Internet. org durch die App Free Basics kostenlos Internet zur Verfügung – allerdings nur zu ausgewählten Seiten und nur in reduzierter Form. Zu etwa 20 Websites kann über Free Basics Kontakt aufgenommen werden. Neben Facebook und Wikipedia gehören auch Aufklärungsseiten und Wetterservices mit dazu. Zu den teilnehmenden Ländern gehören Ghana, Bangladesh, Guatemala, aber auch Angola, Nigeria und Tanzania. Lediglich in Indien wurde diese Initiative nach massiven Protesten eingestellt, da sie Prinzipien der Netzneutralität verletzt. Denn NutzerInnen von Free Basics können nur auf Websites zugreifen, die nach einem von Facebook festgelegten technischen und inhaltlichen Registrierungsverfahren von Facebook zu den Anbietern von Inhalten hinzugefügt wurden. Der gesamte Zugang zum Internet wird für diese NutzerInnen damit über Facebook realisiert. Free Basics wurde im September 2015 veröffentlicht und hatte im November 2016 bereits 40 Millionen neue Nutzerinnen akquiriert.
Fazit
Das Internet der ersten Stunde in der Zeit um die Jahrtausendwende löste bei vielen Menschen Hoffnungen, Wünsche und Utopien einer neuen, frei und selbstbestimmt vernetzten, gerechten Welt aus, in der niemand mehr kapitalistisch geknechtet wird und sich alle Menschen frei entfalten und assoziieren können. Ganz unrecht hatten diese Menschen nicht, denn unter anderen gesellschaftlichen Entwicklungsbedingungen hätte das Internet durchaus das Potenzial dazu gehabt. Die herrschenden Kräfteverhältnisse führten jedoch zu einer Inkorporation des Internets in die kapitalistischen Verhältnisse unter den Paradigmen Globalisierung und Neoliberalisierung. Dadurch wurden die Elemente des Internets kapitalistisch eingehegt, die im Widerspruch zu einer kapitalistischen Verwertungslogik standen.28 Aber auch die technologische Entwicklung passte sich der kapitalistischen Produktionsweise an. Es entstanden einerseits neue Geschäftsfelder inklusive der dazu nötigen Infrastruktur, rechtliche Rahmenbedingungen und technische Geräte. Gleichzeitig hielt das Internet Einzug in vorhandene Produktionsprozesse, sodass auch die Technik in existierende kapitalistische Abläufe integriert wurde. Da diese Phase seit über 10 Jahren abgeschlossen ist, sind inzwischen auch die Utopien und Träume fast vom Tisch, die einst mit dem Internet verbunden wurden. Das Internet ist heute ein von kapitalistischen Logiken durchsetzter Raum, der sich in einer massiven globalen Expansionsphase befindet.
Der Artikel erschien zuerst in PROKLA. Zeitschrift für kritische Sozialwissenschaft und wird hier mit freundlicher Genehmigung gespiegelt. http://www.prokla.de Bild: rosa-lux
Anmerkungen: 1 In Europa liegt die Vernetzungsrate bei 73,5 Prozent, in Deutschland bei 88,4 Prozent. Statistik: internetworldstats.com . 2 Regina Roth (2010) weist nach Aufarbeitung von Marx technischen Studien aus der Zeit von 1840–1870 darauf hin, dass Marx als „Meister der Revision“ seine Analysen und Untersuchungen zu der Frage der Bedeutung der Maschinerie und der Technik in der industriellen Revolution und in der Entwicklung des Kapitalismus sehr oft revidierte und immer wieder neue Aspekte betrachtete. 3 Nicht unerwähnt bleiben darf, dass auch die Rüstungsindustrie im Rahmen des jetzt neu angetriebenen Wettrüstens massiv angekurbelt wurde. 4 Ursprünglich waren im ARPANET vier für das US-Verteidigungsministerium forschende Universitäten miteinander verbunden: University of California Los Angeles, Stanford Research Institute, University of California Santa Barbara und University of Utah. 5 Dieser Pro-Techno-Zeitgeist war mit Bedingung für die sich später ausbreitenden Internetbewegungen, die mit dem Internet die Möglichkeit einer besseren, gerechteren Welt verbanden. 6 OGAS, das „Staatlich automatisierte System zur Datenerhebung und -verarbeitung“ war eine konkrete Entwicklung eines zivilen landesweiten Kommunikationsnetzes. Laut Benjamin Peters (2016) wurde die fertig entwickelte Technologie 1970 in einer landesweiten Umsetzung deswegen nicht getestet, weil das Projekt nicht die notwendige politische Unterstützung erhielt, aufgrund von Konkurrenz im Politbüro um die dafür notwendigen finanziellen Investitionen. 7 Protokolle in der Informatik sind Regeln, die beispielsweise Inhalt, Reihenfolge und Bedeutung gesendeter Informationen festschreiben. 8 Trotzdem adoptierte beispielsweise das Betriebssystem Windows erst ab 1995 TCP/IP standardmäßig. Die Durchsetzung eines einheitlichen offenen Standards hat die weitere Entwicklung des Internets wesentlich beschleunigt. Aber auch ohne einen gemeinsamen Standard wäre eine Entwicklung der Technologie dennoch möglich geworden, es wäre nur ein anderes Internet geworden. Die Auseinandersetzung um den aktuellen E-Book-Markt zeigt, dass ein fehlender gemeinsamer Standard zwar Entwicklungen und Ausbreitung von Konsum behindert, aber trotzdem „funktionieren kann“. Gemeinsame Standards sind also beschleunigend aber nicht unbedingt Voraussetzung.
9 Diese Eigenschaft ist überall im Internet gleich, weshalb Einschränkungen beispielsweise aufgrund von Zensur im Internet immer nur über technische Umwege realisiert werden kann, wie beispielsweise Firewalls, die bestimmte Inhalte einzeln blockieren. 10 Bis zu diesem Zeitpunkt haben sie wesentliche Teile der Infrastruktur mit ausgebaut, z.B. tansatlantisches Kabel. 11 Cisco produziert vor allem Router und Switches und ist eins der wichtigsten Technologieunternehmen und Hauptanbieter von Hardware für sämtliche Bereiche des Netzwerksbetriebs. Zu Hochzeiten des Internet-Booms war Cisco mit Börsenwert von 555 Milliarden US-Dollar kurzzeitig das teuerste Unternehmen der Welt. 12 Prominentester Vertreter ist heute der Apple-Co-Gründer Steve Wozniak. 13 Gemeinsam mit Robert Cailliau und als Weiterentwicklung von Vorläufern wie Ted Nelsons Xanadu. 14 1993 erfolgte die rechtlich abgesicherte Veröffentlichung als Public Domain. 15 Das W3C wird von vier Universitäten getragen, die anfänglich in die Entwicklung involviert waren, später kamen weitere Organisationen hinzu – heute sind 432 Institutionen darin zusammengeschlossen. 16 Besser bekannt unter dem Namen „ Gore Bill“. 17 Die Internet Society ist der organisatorische Rahmen, in dem die bis dahin existierenden Arbeitsgruppen aufgegangen sind, in denen die verschiedenen Aspekte technologischer Standards diskutiert und beschlossen wurden. 18 Die Einnahmestruktur von Google war im Jahr 2005 ähnlich wie 2016 – nur substanziell geringer. Vergleiche hierzu veröffentlichte Jahresbilanzen 2016 „Alphabet Investor Relations“ http://abc.xyz (21.4.2016) und Jahresbilanzen Google 2005 „Google Release Q4 2005 Earnings“ searchenginewatch.com (31.1.2006). 20 Statistische Erhebung: torrentfreak.com. 21 Adrian Johns (2009) hat eine ausführliche Geschichte der Copyright-Auseinandersetzungen dargelegt. 22 Statistik: wikipedia.org und de.statista.com. 23 NutzerInnenzahlen sind nicht nur wichtig, weil sie direkte Werbeeinnahmen generieren, sondern auch indirekt, weil sie eine Aussage der Wichtigkeit des Unternehmens im Vergleich zu seinen Konkurrenten trifft – wer mehr User hat, hat mehr Marktdurchsetzung. 24 Google ist ebenso im Backoffice-Bereich präsent, wie Mako Hill in eindrucksvoller Analyse zeigt. (Hill 2014) 25 Social Media kann vor diesem Hintergrund als Unternehmen eingeordnet werden, die die soziale Kommunikation von Menschen zum Fokus ihrer Dienstleistung machen. 26 Beispiele für diese Art von cloudbasierter Softwarenutzung sind Microsofts Office 365 oder auch die gesamte Adobe-Produktreihe, die seit 2012 nur noch über die Adobe Cloud nutzbar sind. 27 Statistik von internetworldstats.com