Heute wird in Berlin an der Humboldt-Universität das Institut für Internet und Gesellschaft eröffnet. Nicht nur die Berliner Morgenpost spricht derweil salopp vom »Google-Institut«, denn die Startfinanzierung über 4,5 Millionen € für die ersten drei Jahre übernimmt komplett das Unternehmen Google. Ziel des Instituts ist es, die vom Internet ausgehenden Veränderungen der Gesellschaft besser zu verstehen; im Vordergrund stehen zunächst die Aspekte ›Innovation‹ und ›Regulierung‹.
»Das Internet revolutioniert unsere Welt wie lange nichts mehr und die deutschen Hochschulen schaffen es nicht, zumindest ihre überschaubaren Aktivitäten in diesem Bereich unter einem Dach zu bündeln? Jetzt kommt Google […] und sagt: Leute, hier muss was passieren, wir brauchen ein Institut, dass sich allein ums Internet kümmert – hier sind 4,5 Millionen Euro für drei Jahre. […] Die deutschen Netz-Forscher aber stehen blamiert da. Nicht nur, dass sie auf einen der größten Internet-Konzerne warten mussten, um ein Internet-Institut zu gründen. Sie lassen sich auch noch für lumpige 4,5 Millionen Euro Ihre Glaubwürdigkeit zerbeulen. […]
Ulrich Dolata hat in der (Fach-)Zeitschrift Blätter für deutsche und internationale Politik vor einigen Wochen einen Artikel zum Kampf um Werbeeinnahmen im Social Web veröffentlicht, der einen konzisen Überblick über die wirtschaftlichen Erwägungen (und Zahlen) hinter Facebook und Google+ gibt. Quintessenz:
»Google unternimmt derzeit einiges, um den weiteren Aufstieg von Facebook einzudämmen. Das ist der wesentliche Grund für den Einstieg des Werbekonzerns Google in das Geschäft mit sozialen Netzwerken. […] insgesamt ist Google auf dem Online-Werbemarkt noch immer erheblich breiter aufgestellt als Facebook und verfügt über erheblich größere Ressourcen, um in neue Bereiche zu investieren. Wenn Facebook hier aufschließen und mithalten will, braucht es daher viel Geld […]. Das allein schon macht für Facebook den Gang an die Börse zwingend erforderlich.«
Mittlerweile lässt sich dieser Artikel kostenfrei abrufen, und zwar entweder direkt bei den Blättern oder auf den Seiten der Uni Stuttgart.
Tobias Bevc hat einen lesenswerten Artikel zum optisch nicht mehr ganz taufrischen Online-Magazin Telepolis beigesteuert, der einige »Überlegungen zum demokratischen Potential des Web 2.0« anstellt und teilweise zu recht kruden Kommentaren (1, 2, 3) geführt hat (die hier nicht näher diskutiert werden sollen, aber im Kontext der angeschlagenen Thematik wiederum zu Denken geben).
Norbert Elias hat dem Sozialwissenschaftler in »Was ist Soziologie?« (1970) einst die Funktion eines »Mythenjägers« zugesprochen und auch in der modernen Informationsgesellschaft durchkreuzen noch immer zahlreiche Legenden die Öffentlichkeit, die hinterfragenswert erscheinen – darunter die Erzählung, dass sich das Internet schneller ausgebreitet hat als alle Medien je zuvor (siehe etwa hier). Und tatsächlich: Während z.B. in den USA das Radio nach 20 Jahren Marktpräsenz 99 Mio. Nutzer und das Fernsehen deren 160 Mio. verzeichnen konnte, wird das Web bis Ende 2011 rund 250 Mio. US-Amerikaner erreichen.
Der norwegische Informatik-Dozent Gisle Hannemyr stellte allerdings schon 2003 in einem Artikel fest, dass an dieser einfachen Rechnung vieles nicht stimmt: Einerseits sollte zwecks Vergleichbarkeit darauf geachtet werden, dass der Startpunkt der Verbreitungskurven für jedes Medium eine ähnliche Ausgangssituation beschreibt, und andererseits müsste die Bevölkerungsentwicklung mit in die Berechnung mit einbezogen werden. Wird beides getan, kommt folgende Grafik heraus (die Hannemyrs Daten um aktuellere Nutzer- und Bevölkerungszahlen ergänzt):
Tom Standage – um historische Vergleiche nie verlegen, wie schon sein Buch »Das viktorianische Internet« (1999, NZZ-Rezension) zeigt – hat diesen Monat in The Economist eine sehr lesenswerte Artikelserie zum Verhältnis von Internet und Print- bzw. Massenmedien veröffentlicht. Seine Kernthese lautet: Nach einer Phase der Massenmedien und des Gatekeeper-Journalismus bewegen wir uns nun durch Social Media im Web seit einigen Jahren wieder in die Richtung einer liberalen und partizipativen »Kaffeehaus«-Öffentlichkeit, ähnlich wie sie Richard Sennett für das Ancient Régime beschrieben hat. Und das heisst: »News is becoming a social medium again, as it was until the early 19th century—only more so«.
»Das Internet macht vielleicht doch nicht dumm« überschreibt Die Zeiteinen Artikel zu den Ergebnissen einer aktuellen Studie der Columbia University (»Google Effects on Memory«): In der Untersuchung stellte sich heraus, dass sich die Probanden »besser an den Ort erinnern konnten, an dem die Information zu finden ist, als an die Information selbst«. Daraus leiten die Autoren (Sparrow/Wegener) die Vermutung ab, dass das Web als externes Gedächtnis dienen kann.
Ob das Web als Erweiterung des Gehirns wirkt, hängt allerdings wesentlich auch davon ab, über welche Bewertungs- und Selektionskompetenzen der jeweilige Onliner verfügt bzw. aus welchen Gründen heraus er ins Netz geht. Oder um es in den Worten eines netzbekannten fiktiven Rückblick-Kurzfilms zu sagen:
»Bestenfalls ist [das Netz] für seine klügsten Nutzer einer Zusammenfassung der Welt, tiefer umfassender und nuancierter als alles vorher Erhältliche, aber Schlimmstenfalls ist [es] für allzu viele Menschen lediglich eine Ansammlung von Belanglosigkeiten […].«
Dieser Ausschnitt stammt aus der imaginären filmischen Rückschau EPIC 2015, der als Projekt eines ebenfalls erfundenen Museum of Media History die Geschichte des Internet von 1989 bis 2015 nachzeichnet und im Jahr 2004 veröffentlicht wurde. Er beschreibt, wie sich das Netz unter der Vorherrschaft einer damals angenommenen Allianz von Google und Amazon zu einem automatisierten Evolving Personalized Information System entwickelt, das »für jeden ein Content-Paket zusammen[stellt], das seine Vorlieben, seine Konsumgewohnheiten, seine Interessen, seine demografischen Faktoren und seine sozialen Bindungen nutzt« – ein individuelles externes Gedächtnis also, das alle gewünschten Informationen auf dem silbernen Tablet(t) serviert:
Schon aufgrund der Vielzahl an ineinander wirkenden Variablen bleiben die langfristigen soziokulturellen Folgen neuer kommunikationstechnischer Entwicklungen kaum abschätzbar, auch wenn sich hin und wieder aus der Vielzahl an Zukunftserwartungen eindrucksvolle Zufallstreffer herausfiltern lassen (vgl. auch »Heute ist die Zukunft von Gestern« Teil I, II, III und VI).
Ein besonders eindrückliches Beispiel sind einige Vorhersagen aus dem Buch »The Information Machines: Their Impact on Men and the Media« (1971) des Journalisten Ben Haig Bagdikian, der im selben Jahr im Kontext der Veröffentlichung geheimer Pentagon-Papiere zum Vietnam-Krieg einer breiteren Öffentlichkeit bekannt wurde und später die Bestseller Media Monopoly und New Media Monopoly veröffentlichte. Das Buch selbst ist heute kaum mehr zu bekommen, aber aus einem Spiegel-Artikel (1972) lassen sich seine Kernthesen extrahieren. So prognostizierte Bagdikian z.B.:
»Im letzten Drittel des 20. Jahrhunderts wird eine neue Technologie mehr tägliche Informationen unter mehr Menschen streuen können als je zuvor in der Weltgeschichte.«