Das Branchenmagazin buchreport.express (32/2008: 8–10) prognostizierte im August 2008, dass der Umsatzanteil von E-Books am deutschen Buchmarkt bis 2013 zweistellig ausfallen könnte und Zeit bzw. Spiegel überschrieben ihre Artikel zum Buchmarkt 2008 bzw. 2009 mit Titeln wie »Digitalbuch vor dem Durchbruch«, »Tschüss, Gutenberg«, »Goodbye, Gutenberg« (Spiegel 42/2009: 140) oder »Buchmarkt: Die eVolution« (Spiegel 11/2009: 101). Es ließ sich also der Eindruck gewinnen, dass die Buchindustrie alsbald von einem radikalen Wandel erfasst würde.
Den Kernakteuren der Branche wurde in diesem Kontext wiederholt unterstellt, die mutmaßliche Aufbruchstimmung um digitale Inhalte zu verschlafen: Angesichts der hierzulande auch für E-Book geltenden Buchpreisbindung und eines undurchsichtigen Digital-Rights-Management merkte etwa Andrea Hünniger (2009) in der Zeit an, dass die deutsche Buchbranche »exakt die gleichen Fehler wie die Musikindustrie« mache, weil »Konkurrenzkämpfe und kulturelle Vorurteile verhindern, dass das E-Book sich in Deutschland durchsetzt«, und Oliver Jungen (2009) notierte in der FAZ, dass der Buchsektor aus der »Bruchlandung der Musikindustrie […] nichts gelernt« habe.
Aber sind die beiden Mediensektoren tatsächlich miteinander vergleichbar? Immerhin können gedruckte Bücher als Sekundärmedien ohne technische Hilfsmittel rezipiert werden (und insofern auch bewusst als technikfreie Genussmittel eingesetzt werden), während elektronische Bücher ein Abrufgerät benötigen, das Anschaffungskosten verursacht und eine beständige Grundaufmerksamkeit verlangt (Stromversorgung, Diebstahlvermeidung, Sauberkeit etc.).
Deutschlands bekanntester Wissenschaftsjournalist meint ›ja‹: Wohl auch aus unternehmerischem Eigeninteresse prophezeite Ranga Yogeshwar vor einigen Wochen, dass »der Anteil des Gedruckten [.] künftig bei 20% liegen [wird]«, denn »die Geschichte des Internets ebenso wie die des Fernsehens, der Musikbranche und des Kinos« zeige, dass man nicht glauben sollte, alles bleibe beim Alten.
Im Mai dieses Jahres verkündete Amazon, in den USA erstmals mehr E-Books als gedruckte Bücher verkauft zu haben. Zwar wurden die Fluten an kostenlosen E-Books in der zugrundeliegenden Statistik nicht berücksichtigt, aber u.a. Die Zeit entdeckte einen anderen Schönheitsfehler an dieser werbewirksamen Aussage: Als gedruckte Bücher wurden nur jene Hardcover- und Taschenbücher gezählt, die nicht gleichzeitig auch im digitalen Kindle-Format vorlagen. Nichtsdestotrotz lässt sich auch nach einer aktuellen Studie der Eindruck gewinnen, dass sich zumindest der deutsche Markt für E-Books im internationalen Vergleich recht langsam entwickelt (vgl. Abbildung):
Die alljährliche »Brenner-Studie« der GfK für 2011 ist erschienen und wurde in »Studie zur digitalen Content-Nutzung« umbenannt, da dieses Jahr auch der Download und die Nutzung von weiteren Medienprodukten reflektiert wird und neben dem Bundesverband der Musikindustrie auch die Gesellschaft zur Verfolgung von Urheberrechtsverletzungen und der Börsenverein des Deutschen Buchhandels als Kooperationspartner hinter der Untersuchung stehen.
Diese Zusammenarbeit, wie auch die einseitige initiale Interpretation der Ergebnisse durch die Verbände (vgl. Buchreport, Spiegel Online), zeigt, dass die einzelnen Mediensektoren Raubkopien als gemeinsames Problem erkannt haben. Alexander Skipis, Hauptgeschäftsführer des Börsenvereins, gibt denn auch angesichts der Studienergebnisse sogleich zu Protokoll, es sei »nicht erkennbar, dass die Bundesregierung das kulturelle und wirtschaftliche Gefahrenpotenzial erkennt. Wenn nicht bald eine vernünftige Regelung für den Umgang mit urheberrechtlich geschützten Inhalten im Netz entwickelt wird, entzieht das den Kreativen und ihren Verlagspartnern nach und nach die wirtschaftliche Grundlage.«
Tom Standage – um historische Vergleiche nie verlegen, wie schon sein Buch »Das viktorianische Internet« (1999, NZZ-Rezension) zeigt – hat diesen Monat in The Economist eine sehr lesenswerte Artikelserie zum Verhältnis von Internet und Print- bzw. Massenmedien veröffentlicht. Seine Kernthese lautet: Nach einer Phase der Massenmedien und des Gatekeeper-Journalismus bewegen wir uns nun durch Social Media im Web seit einigen Jahren wieder in die Richtung einer liberalen und partizipativen »Kaffeehaus«-Öffentlichkeit, ähnlich wie sie Richard Sennett für das Ancient Régime beschrieben hat. Und das heisst: »News is becoming a social medium again, as it was until the early 19th century—only more so«.
»Das Internet macht vielleicht doch nicht dumm« überschreibt Die Zeiteinen Artikel zu den Ergebnissen einer aktuellen Studie der Columbia University (»Google Effects on Memory«): In der Untersuchung stellte sich heraus, dass sich die Probanden »besser an den Ort erinnern konnten, an dem die Information zu finden ist, als an die Information selbst«. Daraus leiten die Autoren (Sparrow/Wegener) die Vermutung ab, dass das Web als externes Gedächtnis dienen kann.
Ob das Web als Erweiterung des Gehirns wirkt, hängt allerdings wesentlich auch davon ab, über welche Bewertungs- und Selektionskompetenzen der jeweilige Onliner verfügt bzw. aus welchen Gründen heraus er ins Netz geht. Oder um es in den Worten eines netzbekannten fiktiven Rückblick-Kurzfilms zu sagen:
»Bestenfalls ist [das Netz] für seine klügsten Nutzer einer Zusammenfassung der Welt, tiefer umfassender und nuancierter als alles vorher Erhältliche, aber Schlimmstenfalls ist [es] für allzu viele Menschen lediglich eine Ansammlung von Belanglosigkeiten […].«
Dieser Ausschnitt stammt aus der imaginären filmischen Rückschau EPIC 2015, der als Projekt eines ebenfalls erfundenen Museum of Media History die Geschichte des Internet von 1989 bis 2015 nachzeichnet und im Jahr 2004 veröffentlicht wurde. Er beschreibt, wie sich das Netz unter der Vorherrschaft einer damals angenommenen Allianz von Google und Amazon zu einem automatisierten Evolving Personalized Information System entwickelt, das »für jeden ein Content-Paket zusammen[stellt], das seine Vorlieben, seine Konsumgewohnheiten, seine Interessen, seine demografischen Faktoren und seine sozialen Bindungen nutzt« – ein individuelles externes Gedächtnis also, das alle gewünschten Informationen auf dem silbernen Tablet(t) serviert:
Schon aufgrund der Vielzahl an ineinander wirkenden Variablen bleiben die langfristigen soziokulturellen Folgen neuer kommunikationstechnischer Entwicklungen kaum abschätzbar, auch wenn sich hin und wieder aus der Vielzahl an Zukunftserwartungen eindrucksvolle Zufallstreffer herausfiltern lassen (vgl. auch »Heute ist die Zukunft von Gestern« Teil I, II, III und VI).
Ein besonders eindrückliches Beispiel sind einige Vorhersagen aus dem Buch »The Information Machines: Their Impact on Men and the Media« (1971) des Journalisten Ben Haig Bagdikian, der im selben Jahr im Kontext der Veröffentlichung geheimer Pentagon-Papiere zum Vietnam-Krieg einer breiteren Öffentlichkeit bekannt wurde und später die Bestseller Media Monopoly und New Media Monopoly veröffentlichte. Das Buch selbst ist heute kaum mehr zu bekommen, aber aus einem Spiegel-Artikel (1972) lassen sich seine Kernthesen extrahieren. So prognostizierte Bagdikian z.B.:
»Im letzten Drittel des 20. Jahrhunderts wird eine neue Technologie mehr tägliche Informationen unter mehr Menschen streuen können als je zuvor in der Weltgeschichte.«
Der Börsenverein des deutschen Buchhandels hat heute die geschätzten Umsätze buchhändlerischer Betriebe nach Vertriebswegen zu Endverbraucherpreisen für das Jahr 2010 veröffentlicht (und sie entsprechen weitgehend den in Gutenberg-Galaxis Reloaded? formulierten Erwartungen): In der Langfristbetrachtung zeigt sich, dass der Anteil des stationären Buchhandels am Gesamtumsatz seit 2005 kontinuierlich, aber keineswegs erosionsartig abnimmt, der Anteil des direkten Verlagsbuchhandels stabil bleibt und die Relevanz des Online-Buchhandels sukzessive zunimmt. Clubs bzw. Buchgemeinschaften und der klassische Versandhandel spielen hingegen schon seit einigen Jahren kaum mehr eine Rolle.