Kleine Geschichte des E-Books

2. September 2010

“Plötzlich kommt das elektronische Buch in vielen Versionen. Zusammen führen sie zu einer gewaltigen Veränderungen in den Beziehungen zwischen Autoren, Lesern, Verlagen, Buchhandlungen, Bibliotheken und Rezensenten, also der gesamten Welt des Buches oder einfach der ganzen Welt. Das herkömmliche Buch mit den Seiten aus Papier kann bereits auf dem Weg sein, ein nostalgisches Objekt zu werden, das vornehmlich antiquarisches Interesse auf sich zieht”.

Dieser Artikel-Teaser stammt nicht etwas aus dem Jahre 2010, sondern wurde 1998 in Telepolis veröffentlicht. Und tatsächlich, wir haben es schon beinahe vergessen: Ende der 1990er Jahre sollte unsere Gesellschaft nach Vorstellung vieler digitaler Evangelisten schon einmal durch die E-Books umdefiniert werden. Hin und wieder lohnt sich also der Blick zurück, um festzustellen, dass manche Innovationen und die aus ihnen entstehenden Hypes gar nicht so neu sind, wie es zunächst scheint.

Hier ein kurzer Überblick über die Geschichte des E-Books bzw. der E-Reader:

  • Mona Lisa Overdrive” von William Gibson wurde 1988 auf Floppy-Disk publiziert und war somit das erste elektronische Buch, das sich käuflich erwerben ließ.
  • Bereits 1990 bzw. 1993 brachte Sony den Data-Discman bzw. den Bookman heraus und vermarktete die Geräte als “Electronic Book Player”. Als Datenmedien dienten CD-Roms mit 8cm Durchmesser. Das Display verfügte über eine Auflösung von 256×160 Pixeln (S/W). Der Packung beigelegt waren elektronische Versionen des Bertelsmann Universal-Lexikons und des Langenscheidts Taschenwörterbuchs Englisch. Kritikpunkte und Gründe für die mangelnde Verbreitung waren das zu kleine Display, geringe Batterielaufzeiten und eine mangelhafte Suchfunktion.
  • 1998/99 wurde das Rocket eBook der Firma NuvoMedia geboren: Etwa 4000 Buchseiten passten auf den 4 (später 16) Megabyte großen Speicher des Geräts. Das Display hatte eine Auflösung von 480×320 Bildpunkten (SW), der als revolutionär eingestufte Reader (s.o.) war für gut 650 D-Mark zu haben. Die Reaktionen 5 Monate nach Markteinführung waren indes eher verhalten: “Nach 5 Monaten regelmäßiger Lektüre steht zumindest eines fest: Man kann auf dem Gerät problemlos längere Texte für längere Zeit lesen und der Kauf hat mich, trotz des happigen Preises von 675 Mark, nicht gereut – auch wenn die aktuelle Materialisierung meines Traums bestenfalls ein leidiger Kompromiss ist. Anders gesagt: Das Rocket E-Book ist – so, wie es derzeit ist – ein ziemlicher Murks” (Damaschke in Die Zeit 46/2000).
  • Im Jahr 2000 wurden NuvoMedia sowie SoftBookPress, ein anderer E-Reader-Hersteller von Gemstar übernommen, die kurz darauf mit dem REB 1100 und REB 1200 zwei runderneuerte Reader anbot. Im Jahr 2001 folgte der GEB 2200, ein Gerät, das ca. 1 Kilogramm schwer war, über ein Farbdisplay mit 640×480 Pixeln Auflösung, 8 Mbyte internen Speicher, einen Slot für Speicherkarten, ein Modem sowie eine Ethernet-Schnittstelle verfügte, so dass direkt auf den Online-Store des Unternehmens zurückgegriffen werden konnte, der ca. 1000 deutschsprachige Titel bereit hielt. Im Kaufpreis von ca. 650€ (später deutlich billiger) war ein sechwöchiges Abo des elektronischen Spiegels und ein vierwöchiges Abo der Financial Times inbegriffen.
  • Die Bemühungen von Gemstar fruchteten freilich nicht: Ende 2003 stellte das Unternehmen den Verkauf seiner Geräte weltweit ein. Anderen Firmen ging es ähnlich. Danach folgten weitere Versuche von Sony (LIBRIE EBR-1000EP 2004, erstmals mit E-Ink-Technologie), ab 2007 wagte sich die Philips-Tochter iRex Technologies mit dem iLiad auf den Markt, Amazon launchte 2007 den Kindle und Sony präsentierte 2008 den Sony-Reader.

gew

Der GEB 2200 E-Reader

Mit all diesen Geräten waren wichtige technische, aber auch konzeptionelle Weiterentwicklungen verbunden: Die Bedienung, der Lesekomfort und der Bezug von E-Books wurde stetig verbessert. Allein: Bislang konnten die E-Reader den Buchmarkt kaum revolutionieren, jedenfalls nicht in vergleichbarem Maße, wie die digitale Technik die Strukturen in anderen Bereichen umgekrempelt hat. Seit einigen Monaten nun ist das Apple iPad auf den Markt – mit angeschlossenem iBooks-Store, Touch-Screen, Umblätter-Animationen und allem Pipapo. Sicherlich ist das Gerät in vielerlei Hinsicht eine Bereicherung und taugt auch zum gelegentlichen Lesen. Ob es allerdings den Buchmarkt einschneidend verändern wird, steht noch in den Sternen, auch wenn der Hype um das Gerät durchaus schon mit dem E-Book-Hype aus den 1990er Jahren vergleichbar ist.

So zieht der Spiegel in einem aktuellen Bericht die Bilanz, dass der E-Book-Boom zumindest in Deutschland weiter auf sich warten lassen wird: Gerade einmal 20% der Deutschen wissen, was ein E-Reader ist. Die Durchdringung des Marktes lasse auf sich warten, auch weil das Inhaltsangebot noch immer zu klein und vor allen Dingen vollkommen überteuert sei. Das allerdings wurde schon zu Zeiten des Rocket eBook bzw. des GEB 2200 angemahnt (vgl. Manager Magazin 2001). Die Preispolitik lässt sich freilich ändern und das digitale Leseerlebnis hat sich mit jeder Neuentwicklung kontinuierlich verbessert. Zentrale Mankos bleiben aber neben dem fehlenden haptischen Erlebnis: Ein E-Book kann ich nicht gefahrenfrei an den Strand oder in den Park mitnehmen: Wenn ein klassisches Papierbuch nass oder dreckig wird, macht das wenig. Falls es geklaut wird, habe ich in den meisten Fällen weniger als 10 € verloren. Möchte ich das Buch einer Freundin oder einem Freund leihen, kann ich es ihm ohne Kopier- oder Konvertierungsaufwand mitgeben…


Splitter: Vaporware — Viel Lärm um nichts

27. August 2010

1983 angekündigt kam Windows 1.0 schließlich 1985 deutlich verspätet auf den Markt – der wohl bekannteste Fall von Vaporware. Doch was ist das? Letztlich schlicht Marketing-Blasen, die entweder den verfrühten Erscheinungstermin eines Produktes ankündigen oder aber: deren Ankündigungen niemals Realität werden. So lässt sich z.B. die Ankündigung durch Wilson 1975, dass die Soziobiologie die Soziologie binnen 25 Jahren obsolet werden lassen sollte, getrost als “wissenschaftliche Vaporware” bezeichnen. Eigentlich aber wird der Begriff Vaporware vordringlich in der Soft- und Hardware-Branche verwendet. Vaporware lässt sich oftmals als Synonym für übersteigerte Ambitionen fassen, die angefeuert von jüngsten Entwicklungen entweder die (technische) Machbarkeit an sich oder die eigenen Fähigkeiten überschätzen. Hier meine persönliche Vaporware-Top-5 mit Beiträgen aus den unterschiedlichsten Bereichen:

  • Duke Nukem Forever (Game): Angekündigt 1997, händeringend erwartet, aber noch immer in der Entwicklung. Die ursprünglichen Fans des Spiels sind heute um die 30 Jahre alt – ob da noch Interesse an einem aufgemotzten Ego-Shooter besteht? Hier ein aktueller Trailer
  • Der (e)film (Photographie): Angekündigt 1998 sollte diese digitale Filmpatrone den typischen Kleinbildfilm ersetzen, also digitale Bilder mit herkömmlichen Kameras möglich machen. Bis heute allerdings wartet die (vor dem Hintergrund mittlerweile sehr günstiger Digitalkameras nicht mehr wirklich interessierte) Öffentlichkeit auf das Produkt…

efilm11

  • Chinese Democracy” (Musik): Ein Beispiel für eine lange angekündigte und dann sogar tatsächlich erfolgte Veröffentlichung ist das langerwartete 6. Guns N´Roses Album (1994 angekündigt, 2008 veröffentlicht)…
  • Cyberdemokratie (Politik): Oft erhofft, aber auch mit dem Web 2.0 nicht Wirklichkeit geworden – mehr (Basis)Demokratie durch das Internet…
  • HDTV, frühere Vertreter der gleichen Kategorie: PALPlus, HD-MAC, aktuell vermutlich 3dtv (Technik): Erstmals angekündigt in den 1980ern kann sich HDTV als Sendenorm erst jetzt allmählich durchsetzen, und das, obwohl die dazu passenden Geräte schon seit Jahren in europäischen Wohnzimmern stehen. Es bleibt abzuwarten, ob es der 3D-Technik für das Pantoffelkino nicht ähnlich ergehen wird…

Ich wäre sehr interessiert an niemals oder erst sehr spät realisierten Produktankündigungen, die Euch über den Weg gelaufen sind… Einfach die Kommentarfunktion benutzen!


Street View in der Global Village

22. August 2010

Mit Rekurs auf Luhmanns Informationsbegriff weist Jörg Räwel in Telepolis auf die Paradoxien hin, die mit einem Einspruch und der damit verknüpften Unkenntlichmachung der Gebäude bei Google Street View verbunden sind:

“Da von einem vergleichsweise kleinen Personenkreis auszugehen ist, der Häuserfassaden oder Grundstücke verblenden lässt, werden die – also vereinzelten – Verpixelungen beim Betrachten der Strassenpanoramen gewissermassen ins Auge springen. Es sind also gerade durch die Löschung verursachte Unterschiede (zu unverpixelten Immobilien), die informative Unterschiede erzeugen. Es darf dann mit Blick auf die hervorstechenden “Löschungen” vermutet werden: Der Bewohner dieses Hauses/Grundstücks ist sicher ein Googlekritiker, scheint von Datenmissbrauchsphobie befallen zu sein, hat was zu verbergen (Gibt es wohl Wertsachen in Haus?), scheint auf seinem Grundstück ein ziemliches Chaos zu haben […]. Entgegen naiver Überzeugung und dann paradoxer Weise werden mit dem Löschen (Verblenden, Verpixeln) von Daten keine Daten vernichtet, sondern werden vielmehr neue Daten erzeugt.”

Diese Beschreibungen gelten aber nicht nur für Abbildungen im digitalen Nexus, sondern ebenso in der Offline-Welt: Sobald ein Hausbesitzer eine große Mauer um sein Anwesen baut, provoziert er Neugierde und Aufmerksamkeit, d.h. er steigert die Wahrscheinlichkeit dafür, dass sein Haus für kriminelle Machenschaften interessant wird, obwohl oder gerade weil er etwas verbirgt. Dies gilt zumindest in jeder durchschnittlichen deutschen Stadt.

In Windhoek (Namibia) hingegen ist beispielsweise eine Abschottung des Eigenheims mit entsprechender Sicherheitsanlage die Normalität (sobald man sich ein Haus leisten kann). In den entsprechenden Quartieren würde sich ein Hausbesitzer unterscheiden (und entsprechende Aufmerksamkeit erregen), der keine Sichtschutz- und Sicherheitsvorkehrungen trifft.

Wenn es also nicht üblich ist, die Bilder der Aussenfassaden seiner Wohnung oder seines Hauses in Street View zu verschlüsseln, fällt jede Verpixelung natürlich auf. Eine zu diskutierende Lösung wäre es folglich, zunächst einmal alle Privat-Immobilien zu Verpixeln und auf Anfrage “klar” zu schalten.

Auf der anderen Seite deutet schon das Wort “Fassade” auf den Denkfehler hin, der Street View-Kritikern unterläuft: Die Aussenhaut eines Gebäudes ist ja geradezu dazu gemacht, gesehen zu werden. Und dass mannigfaltige Spielarten angewendet werden, um sich diesbezüglich bewusst von seinen Nachbarn zu unterscheiden, lässt sich etwa in den Stuttgarter Wohnbieten auf Halbhöhenlage bestens beobachten. Warum sollten diese Fassaden offline sichtbar sein und Online verpixelt werden?

Einerseits profitiert jeder Online-Nutzer von den effizienteren Kommunikationsweisen und den damit verbundenen schier unendlichen neuen Kommunikationsmöglichkeiten, die scheinbar so leicht und schnell erreichbar sind, wie früher die Kneipe im heimischen Dorf. Der Begriff “Global Village” trifft des Pudels Kern also zumindest teilweise. Andererseits aber sollen in dieser globalen digitalen Stadt nun die Fassaden der Häuser verhüllt werden?

Wer keine Daten zu seiner Person produzieren bzw. freigeben möchte, darf sich eigentlich kaum im World Wide Web bewegen, da jeder Mausklick protokolliert werden kann und viele Dienste nur sinnvoll nutzbar werden, wenn zumindest irgendeine digitale Identität angegeben wird. Wer an der vordigitalen Öffentlichkeit partizipieren wollte, wie sie etwa Sennett in ihrer Urform für das Ancien Régime beschrieben hat, musste – wie jeder Internetnutzer – heute damit leben, dass seine Mitmenschen registrieren, in welchen Gegenden er sich bewegt und was er in welchen Kneipen oder Cafè-Häusern macht. Wer in der Stadt bekannt war, musste damit rechnen, dass einzelne Mitmenschen hin und wieder wissen wollten, wie er denn so wohnt.

Vielmehr passiert heute auch nicht im Kontext von Street View: Wer sich unterscheidet (durch sein Verhalten, seine finanzielle Situation, die Fassade seines Hauses, seine Attitüde etc.) wird interessant für etwaige Beobachter. Wer vor der sozialen Wirklichkeitswerdung des Internets durch eine relevante Unterscheidung (z.B. durch ein protziges Haus) für das heimische Verbrechen interessant wurde, wird heute via Street View für international agierende kriminelle Organisationen interessant und muss ggf. entsprechende Vorsichtsmaßnahmen treffen.

So gesehen sind die Veränderungen durch Google Street View also nicht gravierend: Die Digitalmachung der Gebäudefassaden ist eine nahe liegende Konsequenz der kommunikationstechnischen Global Village, wobei McLuhan selbst später das Bild eines “globalen Theaters” präferierte. Ein drastischer Unterschied zu den öffentlichen Fassaden in der klassischen Stadt existiert dann aber doch: Bei entsprechendem Interesse kann sich jeder Spaziergänger die Gebäude und deren Fassaden auf gleiche eingehende Weise betrachten. Im Falle des privaten Unternehmens Google wissen wir hingegen nicht, welche Daten neben den Veröffentlichten noch in den Händen des Anbieters liegen.


Soziologie und Innovation

29. Juli 2010

Allgemeinhin herrscht der Eindruck, dass die geisteswissenschaftliche und insbesondere die soziologische Forschung nur sehr träge auf Veränderungen im technischen Bereich reagiert. Dass dem nicht so sein muss, zeigte kürzlich eine Klausurtagung der führenden deutschen Technik- und Innovationssoziologen in Stuttgart. Unter den 35 Experten waren u.a. Werner Rammert (Berlin), Johannes Weyer (Dortmund), Ulrich Dolata (Stuttgart) und Christian Stegbauer (Frankfurt). Diskutiert wurden folgende Themenfelder:

  • Veränderungen von Arbeitsprozessen durch Online-Technologien, intelligente Infrastrukturtechnologien und hochtechnisierte Produktionssysteme;
  • Mensch-Maschine-Interaktionen (z.B. Flugzeug-Cockpits) und die Technisierung des Körpers (z.B. durch leistungssteigernde Medikamente);
  • Vergemeinschaftung und soziale Netzwerke im Internet;
  • Wechselprozesse zwischen technischem und sozialem Wandel;
  • Einflüsse von schwach organisierten kollektiven Akteuren (z.B. “Schwärme”);
  • Steuerungs- und Gestaltungsmöglichkeiten in Innovationsprozessen.

Den ausführlichen Tagungsbericht kann hier abgerufen werden.


Elfmeter: Die doppelte Kontingenz

2. Juli 2010

Schussgeschwindigkeiten um die 100 km/h auf ein Tor mit  7,32 Metern Breite bzw.  2,44 Metern Höhe und mit einer Distanz zwischen Elfmeterpunkt und Torlinie, die vom Spielball in weniger als einer halben Sekunde überwunden wird, machten das Viertelfinale der FIFA-WM 2006 zwischen Deutschland und Argentinien zu einem nervenzerreißenden Krimi.

Das Elfmeterschießen ist ein Paradebeispiel für doppelte Kontingenz als das Grundproblem jeglicher Kommunikation: Der Wechselprozess zwischen den Erwartungen der teilhabenden Akteure, die sich indirekt aneinander ausrichten und jeweils auch anders sein könnten.

Lehmann hatte eine Vermutung, welche Ecke Rodriguez wählen könnte und  Rodriguez vermutete, dass Lehmann das vermutete. Daher tendierte er für die andere Ecke, wobei Lehmann wiederum vermutete, dass Rodriguez wußte, was er zuvor vermutete usw. usf. Rodriguez  verwandelte seinen Elfer, bei zwei weiteren Argentiniern lag hingegen Lehmann richtig.

Was heißt das nun für  Neuer und Podolski ? Einerseits ist die Wahrscheinlichkeit, den Elfer zu halten, für den Torwart statistisch gesehen gering: Über 80% dieser Strafstöße werden im WM-Kontext verwandelt. Entsprechend richten sich die Erwartungen des Publikums aus: Neuer wird nicht verdammt werden, wenn er den Ball nicht abwehren kann, Podolski hingegen schon, falls er verschießt.

Also heißt es für den Schützen, möglichst unberechenbar zu sein und seine Entscheidungen möglichst zufällig zu wechseln. Das allerdings entspricht nun nicht der menschlichen Natur und schon gar nicht der Relevanz der Situation, in der ein ganzes Land auf einen Treffer hofft. Welche Möglichkeiten Schütze und Keeper bleiben, haben die Leipziger Soziologen Roger Berger und Rupert Hammer anhand der Daten vieler Bundesliga-Spielzeiten in einem jüngst ausgezeichneten Artikel diskutiert:

  • Schüsse in die oberen Torecken sind beinahe unhaltbar, aber das Risiko, den Ball über die Latte zu semmeln ist nicht zu unterschätzen.
  • Genau in die Mitte zu schießen erscheint ebenfalls erfolgsversprechend, da der Keeper nur in 2% der Fälle nicht nach links oder nach rechts springt. Allerdings nur, wenn er nicht anhand der Schussbewegung antizipieren kann, dass der Ball in der Mitte landet.
  • Gemäß der analysierten Daten besitzt jeder Schütze einen  Schussfuß, den er gerade beim Elfmeter nicht wechselt und der die Wahrscheinlichkeit für eine “natürliche” Schussrichtung steigert. Das weiß natürlich auch der Torwart und wird versuchen, in die entsprechende Ecke zu springen. Der Schütze kann aber auch bewusst die andere Ecke wählen, selbst wenn der Schuss dann wahrscheinlich schwächer ist, weil er ja weiß, dass der Torwart höchstwahrscheinlich über seine “natürliche” Schussrichtung informiert ist.
  • Entgegen aller Vorurteile spielt der psychische Druck durch Heimspiele, einen knappen Spielstand oder einem späten Zeitpunkt im Spiel statistisch gesehen keine Rolle für den Erfolg des Strafstoßes.

Und das Fazit für Samstag? Bestenfalls macht sich der Schütze möglichst wenig Gedanken um seine Entscheidung und trifft eine auch in der Beobachtung rein zufällig erscheinende Wahl. Das allerdings ist leichter gesagt als getan, da der Spieler dann eigentlich gegen die ihm zugeschriebenen Regelmäßigkeiten (z.B. häufige Schussrichtung) ansteuern muss, die ihm nicht mal selbst bewusst sein müssen.

In der Kommunikation haben wir allerlei soziale Methoden und individuelle Brückenkonstruktionen entwickelt, um die doppelte Kontingenz zu reduzieren und die wechselseitigen Erwartungen aneinander auszurichten, denn in den meisten Fällen wollen wir ja durchaus verstehen und verstanden werden. In der Elfmeter-Situation ist das genau umgekehrt: Der Schütze möchte in seiner Entscheidung eben keineswegs durchschaut werden und ebensowenig möchte der Torwart Anzeichen dafür geben, welche Ecke er wohl deckt. Gleichzeitig wollen beide Seiten aber möglichst früh wissen, wie sich die andere Seite verhält.

Oder aber, man macht es wie Lukas Podolski und schießt einfach ohne unnötig nachzudenken.

___________

Zum Weiterlesen: Roger Berger und Rupert Hammer: „Die doppelte Kontingenz von Elfmeterschüssen“, Soziale Welt 58 (2007).