Neue Demokratie im Netz?

11. Oktober 2010

Ab Oktober 2010 ist mein Buch “Neue Demokratie im Netz? Eine Kritik an den Visionen der Informationsgesellschaft” beim Transcript-Verlag verfügbar. Update: Mittlerweile ist auf der Vorstellungsseite des Buches auch eine Leseprobe verfügbar und hier gibt es den Personen- und Sachindex.

Neue Demokratie im Netz?

Weiterlesen »


E-Books III: iPad & elektronische Bücher

30. September 2010

Jüngster Mitbewerber (auch) auf dem E-Reader-Markt ist das Apple iPad, welches sich stark von Konkurrenten wie dem Amazon Kindle (in Deutschland noch immer nicht im regulären Handel) oder dem Sony Reader unterscheidet. Unter anderem nutzt das iPad nicht, wie alle anderen E-Reader, ein hochauflösendes und von Sonnenlicht unbeeinflusstes E-Ink-Display mit Graustufendarstellung, sondern ein farbiges Multi-Touch-Display mit LED-Hintergrundbeleuchtung, was Amazon sogleich zu einem recht amüsanten vergleichenden Werbespot inspiriert hat:

[Nicht mehr verfügbar]

Weiterlesen »


E-Books II: Nachrichten aus der Vergangenheit

14. September 2010

Prognosen sind kein einfaches Geschäft, keine Frage. Hin und wieder zeigt freilich ein Blick in die Vergangenheit, wie vorsichtig man mit weitreichenden Transformationshypothesen sein sollte: Microsofts Vorstellungen zum  E-Book-Markt 2020 aus dem Jahre 2000 könnte jedenfalls nur noch wahr werden, falls sich die Entwicklungsgeschwindigkeit in den kommenden Jahren erheblich steigern sollte (siehe Screenshot)…

Microsoft Prognose E-Books

Solche übersteigerten Visionen werden ja allgemeinhin gerne wieder vom Netz genommen, via Web Archive bleiben sie allerdings der Nachwelt erhalten.


Kleine Geschichte des E-Books

2. September 2010

“Plötzlich kommt das elektronische Buch in vielen Versionen. Zusammen führen sie zu einer gewaltigen Veränderungen in den Beziehungen zwischen Autoren, Lesern, Verlagen, Buchhandlungen, Bibliotheken und Rezensenten, also der gesamten Welt des Buches oder einfach der ganzen Welt. Das herkömmliche Buch mit den Seiten aus Papier kann bereits auf dem Weg sein, ein nostalgisches Objekt zu werden, das vornehmlich antiquarisches Interesse auf sich zieht”.

Dieser Artikel-Teaser stammt nicht etwas aus dem Jahre 2010, sondern wurde 1998 in Telepolis veröffentlicht. Und tatsächlich, wir haben es schon beinahe vergessen: Ende der 1990er Jahre sollte unsere Gesellschaft nach Vorstellung vieler digitaler Evangelisten schon einmal durch die E-Books umdefiniert werden. Hin und wieder lohnt sich also der Blick zurück, um festzustellen, dass manche Innovationen und die aus ihnen entstehenden Hypes gar nicht so neu sind, wie es zunächst scheint.

Hier ein kurzer Überblick über die Geschichte des E-Books bzw. der E-Reader:

  • Mona Lisa Overdrive” von William Gibson wurde 1988 auf Floppy-Disk publiziert und war somit das erste elektronische Buch, das sich käuflich erwerben ließ.
  • Bereits 1990 bzw. 1993 brachte Sony den Data-Discman bzw. den Bookman heraus und vermarktete die Geräte als “Electronic Book Player”. Als Datenmedien dienten CD-Roms mit 8cm Durchmesser. Das Display verfügte über eine Auflösung von 256×160 Pixeln (S/W). Der Packung beigelegt waren elektronische Versionen des Bertelsmann Universal-Lexikons und des Langenscheidts Taschenwörterbuchs Englisch. Kritikpunkte und Gründe für die mangelnde Verbreitung waren das zu kleine Display, geringe Batterielaufzeiten und eine mangelhafte Suchfunktion.
  • 1998/99 wurde das Rocket eBook der Firma NuvoMedia geboren: Etwa 4000 Buchseiten passten auf den 4 (später 16) Megabyte großen Speicher des Geräts. Das Display hatte eine Auflösung von 480×320 Bildpunkten (SW), der als revolutionär eingestufte Reader (s.o.) war für gut 650 D-Mark zu haben. Die Reaktionen 5 Monate nach Markteinführung waren indes eher verhalten: “Nach 5 Monaten regelmäßiger Lektüre steht zumindest eines fest: Man kann auf dem Gerät problemlos längere Texte für längere Zeit lesen und der Kauf hat mich, trotz des happigen Preises von 675 Mark, nicht gereut – auch wenn die aktuelle Materialisierung meines Traums bestenfalls ein leidiger Kompromiss ist. Anders gesagt: Das Rocket E-Book ist – so, wie es derzeit ist – ein ziemlicher Murks” (Damaschke in Die Zeit 46/2000).
  • Im Jahr 2000 wurden NuvoMedia sowie SoftBookPress, ein anderer E-Reader-Hersteller von Gemstar übernommen, die kurz darauf mit dem REB 1100 und REB 1200 zwei runderneuerte Reader anbot. Im Jahr 2001 folgte der GEB 2200, ein Gerät, das ca. 1 Kilogramm schwer war, über ein Farbdisplay mit 640×480 Pixeln Auflösung, 8 Mbyte internen Speicher, einen Slot für Speicherkarten, ein Modem sowie eine Ethernet-Schnittstelle verfügte, so dass direkt auf den Online-Store des Unternehmens zurückgegriffen werden konnte, der ca. 1000 deutschsprachige Titel bereit hielt. Im Kaufpreis von ca. 650€ (später deutlich billiger) war ein sechwöchiges Abo des elektronischen Spiegels und ein vierwöchiges Abo der Financial Times inbegriffen.
  • Die Bemühungen von Gemstar fruchteten freilich nicht: Ende 2003 stellte das Unternehmen den Verkauf seiner Geräte weltweit ein. Anderen Firmen ging es ähnlich. Danach folgten weitere Versuche von Sony (LIBRIE EBR-1000EP 2004, erstmals mit E-Ink-Technologie), ab 2007 wagte sich die Philips-Tochter iRex Technologies mit dem iLiad auf den Markt, Amazon launchte 2007 den Kindle und Sony präsentierte 2008 den Sony-Reader.

gew

Der GEB 2200 E-Reader

Mit all diesen Geräten waren wichtige technische, aber auch konzeptionelle Weiterentwicklungen verbunden: Die Bedienung, der Lesekomfort und der Bezug von E-Books wurde stetig verbessert. Allein: Bislang konnten die E-Reader den Buchmarkt kaum revolutionieren, jedenfalls nicht in vergleichbarem Maße, wie die digitale Technik die Strukturen in anderen Bereichen umgekrempelt hat. Seit einigen Monaten nun ist das Apple iPad auf den Markt – mit angeschlossenem iBooks-Store, Touch-Screen, Umblätter-Animationen und allem Pipapo. Sicherlich ist das Gerät in vielerlei Hinsicht eine Bereicherung und taugt auch zum gelegentlichen Lesen. Ob es allerdings den Buchmarkt einschneidend verändern wird, steht noch in den Sternen, auch wenn der Hype um das Gerät durchaus schon mit dem E-Book-Hype aus den 1990er Jahren vergleichbar ist.

So zieht der Spiegel in einem aktuellen Bericht die Bilanz, dass der E-Book-Boom zumindest in Deutschland weiter auf sich warten lassen wird: Gerade einmal 20% der Deutschen wissen, was ein E-Reader ist. Die Durchdringung des Marktes lasse auf sich warten, auch weil das Inhaltsangebot noch immer zu klein und vor allen Dingen vollkommen überteuert sei. Das allerdings wurde schon zu Zeiten des Rocket eBook bzw. des GEB 2200 angemahnt (vgl. Manager Magazin 2001). Die Preispolitik lässt sich freilich ändern und das digitale Leseerlebnis hat sich mit jeder Neuentwicklung kontinuierlich verbessert. Zentrale Mankos bleiben aber neben dem fehlenden haptischen Erlebnis: Ein E-Book kann ich nicht gefahrenfrei an den Strand oder in den Park mitnehmen: Wenn ein klassisches Papierbuch nass oder dreckig wird, macht das wenig. Falls es geklaut wird, habe ich in den meisten Fällen weniger als 10 € verloren. Möchte ich das Buch einer Freundin oder einem Freund leihen, kann ich es ihm ohne Kopier- oder Konvertierungsaufwand mitgeben…


Street View in der Global Village

22. August 2010

Mit Rekurs auf Luhmanns Informationsbegriff weist Jörg Räwel in Telepolis auf die Paradoxien hin, die mit einem Einspruch und der damit verknüpften Unkenntlichmachung der Gebäude bei Google Street View verbunden sind:

“Da von einem vergleichsweise kleinen Personenkreis auszugehen ist, der Häuserfassaden oder Grundstücke verblenden lässt, werden die – also vereinzelten – Verpixelungen beim Betrachten der Strassenpanoramen gewissermassen ins Auge springen. Es sind also gerade durch die Löschung verursachte Unterschiede (zu unverpixelten Immobilien), die informative Unterschiede erzeugen. Es darf dann mit Blick auf die hervorstechenden “Löschungen” vermutet werden: Der Bewohner dieses Hauses/Grundstücks ist sicher ein Googlekritiker, scheint von Datenmissbrauchsphobie befallen zu sein, hat was zu verbergen (Gibt es wohl Wertsachen in Haus?), scheint auf seinem Grundstück ein ziemliches Chaos zu haben […]. Entgegen naiver Überzeugung und dann paradoxer Weise werden mit dem Löschen (Verblenden, Verpixeln) von Daten keine Daten vernichtet, sondern werden vielmehr neue Daten erzeugt.”

Diese Beschreibungen gelten aber nicht nur für Abbildungen im digitalen Nexus, sondern ebenso in der Offline-Welt: Sobald ein Hausbesitzer eine große Mauer um sein Anwesen baut, provoziert er Neugierde und Aufmerksamkeit, d.h. er steigert die Wahrscheinlichkeit dafür, dass sein Haus für kriminelle Machenschaften interessant wird, obwohl oder gerade weil er etwas verbirgt. Dies gilt zumindest in jeder durchschnittlichen deutschen Stadt.

In Windhoek (Namibia) hingegen ist beispielsweise eine Abschottung des Eigenheims mit entsprechender Sicherheitsanlage die Normalität (sobald man sich ein Haus leisten kann). In den entsprechenden Quartieren würde sich ein Hausbesitzer unterscheiden (und entsprechende Aufmerksamkeit erregen), der keine Sichtschutz- und Sicherheitsvorkehrungen trifft.

Wenn es also nicht üblich ist, die Bilder der Aussenfassaden seiner Wohnung oder seines Hauses in Street View zu verschlüsseln, fällt jede Verpixelung natürlich auf. Eine zu diskutierende Lösung wäre es folglich, zunächst einmal alle Privat-Immobilien zu Verpixeln und auf Anfrage “klar” zu schalten.

Auf der anderen Seite deutet schon das Wort “Fassade” auf den Denkfehler hin, der Street View-Kritikern unterläuft: Die Aussenhaut eines Gebäudes ist ja geradezu dazu gemacht, gesehen zu werden. Und dass mannigfaltige Spielarten angewendet werden, um sich diesbezüglich bewusst von seinen Nachbarn zu unterscheiden, lässt sich etwa in den Stuttgarter Wohnbieten auf Halbhöhenlage bestens beobachten. Warum sollten diese Fassaden offline sichtbar sein und Online verpixelt werden?

Einerseits profitiert jeder Online-Nutzer von den effizienteren Kommunikationsweisen und den damit verbundenen schier unendlichen neuen Kommunikationsmöglichkeiten, die scheinbar so leicht und schnell erreichbar sind, wie früher die Kneipe im heimischen Dorf. Der Begriff “Global Village” trifft des Pudels Kern also zumindest teilweise. Andererseits aber sollen in dieser globalen digitalen Stadt nun die Fassaden der Häuser verhüllt werden?

Wer keine Daten zu seiner Person produzieren bzw. freigeben möchte, darf sich eigentlich kaum im World Wide Web bewegen, da jeder Mausklick protokolliert werden kann und viele Dienste nur sinnvoll nutzbar werden, wenn zumindest irgendeine digitale Identität angegeben wird. Wer an der vordigitalen Öffentlichkeit partizipieren wollte, wie sie etwa Sennett in ihrer Urform für das Ancien Régime beschrieben hat, musste – wie jeder Internetnutzer – heute damit leben, dass seine Mitmenschen registrieren, in welchen Gegenden er sich bewegt und was er in welchen Kneipen oder Cafè-Häusern macht. Wer in der Stadt bekannt war, musste damit rechnen, dass einzelne Mitmenschen hin und wieder wissen wollten, wie er denn so wohnt.

Vielmehr passiert heute auch nicht im Kontext von Street View: Wer sich unterscheidet (durch sein Verhalten, seine finanzielle Situation, die Fassade seines Hauses, seine Attitüde etc.) wird interessant für etwaige Beobachter. Wer vor der sozialen Wirklichkeitswerdung des Internets durch eine relevante Unterscheidung (z.B. durch ein protziges Haus) für das heimische Verbrechen interessant wurde, wird heute via Street View für international agierende kriminelle Organisationen interessant und muss ggf. entsprechende Vorsichtsmaßnahmen treffen.

So gesehen sind die Veränderungen durch Google Street View also nicht gravierend: Die Digitalmachung der Gebäudefassaden ist eine nahe liegende Konsequenz der kommunikationstechnischen Global Village, wobei McLuhan selbst später das Bild eines “globalen Theaters” präferierte. Ein drastischer Unterschied zu den öffentlichen Fassaden in der klassischen Stadt existiert dann aber doch: Bei entsprechendem Interesse kann sich jeder Spaziergänger die Gebäude und deren Fassaden auf gleiche eingehende Weise betrachten. Im Falle des privaten Unternehmens Google wissen wir hingegen nicht, welche Daten neben den Veröffentlichten noch in den Händen des Anbieters liegen.


Luhmann vor dem World Wide Web

10. August 2010

Luhmann, der theoretische “Antihumanist“, hat sich, das zeigen vor allen Dingen Interviews, auch mit den Auswirkungen computergestützter Kommunikation auf die Gesellschaft beschäftigt. Etwas gemein, aber hier ein paar Aussagen, die der Systemtheoretiker größtenteils vor der sozialen Wirklichkeitswerdung des Internets getroffen hat:

… zur Computerisierung der Gesellschaft (1992, aus dem Buch “Was tun, Herr Luhmann” [Kadmos 2009]): “In den ersten gedruckten Büchern wurde der Leser aufgefordert, selber zu antworten, seine eigenen Erfahrungen, etwa mit Kräutern, an den Autor des Buches weiterzugeben. Der Leser wurde sogar aufgefordert, selbst Bücher zu schreiben. […] Ich sehe keine Veränderungen von gesellschaftlicher Tragweite. Ich beobachte nur Veränderungsstückchen, neue Möglichkeiten in verschiedenen Hinsichten, […] nichts, was dem kulturellen Stoßeffekt der Schrift gleichkäme. […] Ich sehe keine Ausweitung von Möglichkeiten, die den Organisationsaufwand und den Formfindungsaufwand schwieriger machen. Es fällt ja auf, dass beispielsweise die Computerisierung in Firmen mit fast unveränderten Organisationsformen durchgeführt wird”.

… zur Dezentralisierung durch Computerisierung (1993, ganzes Interview hier): “Die Computerisierung führt zu einer Dezentralisierung sowohl auf professioneller als auch auf organisatorischer Ebene und gerade nicht zu einer zentralen Kontrolle. […] Computersysteme thematisch zu zentralisieren, macht überhaupt keinen Sinn”.

… über das Verhältnis zwischen Web-Massenmedien (1997 , ganzes Interview hier): “Für Massenmedien selber werden die aktuellen technischen Innovationen wie das Internet oder individuell wählbare Informationen wenig Bedeutung haben. Sie werden sich neben Massenmedien wie Tageszeitungen oder auch das Fernsehen setzen, sie jedoch nicht verdrängen. Das Internet mit seinen Kommunikationsmöglichkeiten ist auch, wenn es massenhaft als Medium genutzt wird, kein Massenmedium, denn es ist ja gerade keine einseitige technische Kommunikation, sondern kann individuell genutzt werden. Die Sorge, dass neue Medien die traditionellen ersetzen, ist so alt wie unbegründet”.

… zu Computern und Information (1996, ganzer Vortrag hier): “Die Computer speichern und verarbeiten, wie man sagt, Informationen: aber ihre Schaltzustände sind und bleiben unsichtbar, und man muß schon wissen, was man wissen will, um ihnen Schrift, Tabelle, Bild oder Sprache zu entlocken. […] Die gespeicherten Daten, die Bücher in den Bibliotheken, die Dokumente in den Archiven, die Schaltzustände der Computer, sind zunächst ja nur virtuelle Information, die nur Information wird, wenn man sie nachfragt und sich durch Auskunft oder Ausdruck überraschen läßt. Zur Anfrage oder Abfrage bedarf es jedoch einer Entscheidung. […] Computer machen Eindruck, gerade weil man nicht sehen kann, wie sie arbeiten. Aber die Form der Information hat auch eine andere Seite. Sie reproduziert Wissen als Überraschung. Alles, was sie bestimmt, könnte auch anders bestimmt sein. Ihre Kosmologie ist eine Kosmologie nicht des Seins, sondern der Kontingenz”.


Horst Köhler und die Kraft des Webs

31. Mai 2010

Ganz klar: Ein Kapitän sollte das Schiff nicht bei hohem Wellengang verlassen, sondern muss seines Amtes zumindest walten, bis ein sicherer Hafen in Sichtweite ist. Trotzdem: Mit Horst Köhler ist übel mitgespielt worden, insbesondere in einem ZEIT-Kommentar vonKarsten Polke-Majewski. Aber das ist eine Diskussion, die hier nicht geführt werden soll.

via Wiki Commons

Interessant ist in unserem Kontext freilich etwas ganz anderes, nämlich die Chronologie der Berichterstattung zu Köhlers umstrittenen Interview:

  • Am 22. Mai veröffentlicht der Deutschlandfunk eine Zusammenfassung des besagten Interviews mit unserem Bundespräsidenten (mittlerweile a.d.), allerdings ohne direkt auffindbaren Link zur entsprechenden Audio-Datei.
  • Am 25. Mai berichtet “Lupe, der Satire-Blog” ausführlich über das Interview und bringt neben einem Kommentar auch ein Video mit kompletter Audiospur des Interviews. Am gleichen Tag stellt das Blog “Bundeshorst” Strafanzeige gegen Horst Köhler aufgrund der fraglichen Passagen. Kurz danach ist das Interview vieldiskutiertes Thema in der deutschsprachigen Blogosphäre.
  • Erst am 27. Mai begannen die etablierten massenmedialen Kanäle wie der Spiegel über das Interview zu berichten und die Berichterstattungslawine kam ins Rollen – mit den nun allen bekannten Folgen.

Die Affäre um Horst Köhler ist damit ein perfektes Beispiel dafür, welchen Einfluss die Blogospähre auf die mediale Berichterstattung ausüben kann bzw. welchen Zeitvorsprung Social-News- und Blog-Leser im besten Falle haben…