Status

Ich weiß nicht, woran es liegt, aber ich kann mobil einfach nicht bloggen. Ich mag die WordPress-iOS-App durchaus gerne. Aber nur, wenn es darum geht mal eben fix einen gefundenen Fehler in einem bestehenden Artikel auszumerzen. Aber einen regulären Beitrag verfasse ich so ungern damit. Anders als Federico Viticci, der beeindruckender Weise seinen kompletten Workflow auf das iPad ausgerichtet hat und darüber zahlreiche sehr interessante Artikel verfasst hat. Aber gut, er nutzt ja nicht die WordPress-App, sondern Editorial und hat offenbar auch ein ganz eigenes CMS für das Blog macstories.

Noch dazu bin ich immer wieder mit dem gegenwärtigen Aussehen von urbandesire.de unzufrieden. Habe aber auch keine Zeit, mich wirklich um die Theme-Entwicklung zu kümmern. Während es mich lange Zeit nervte, dass mein Theme durch Sidebar und Klimbim von den Artikel ablenkte, und ich dazu entschied auf ein neues Theme zu setzen, dass die Texte in den Vordergrund rückte, war es mir dann wieder zu kahl und zu umständlich auch permante Inhalte wie Menüs, Blogroll etc. einzupflegen. Deswegen habe ich heute mal wieder auf ein neues Theme umgestellt, dass so etwas wie einen Kompromiss darstellt. Ein bisschen Menü und Klimbim oben und unten… und der Rest fokussiert sich auf die Texte.

Es nervt sowieso, dass diese ganze Widgetisierung der WordPress-Themes, ihrer Anpassbarkeit so stark zusetzt. Wo man früher einfach mal einen html-Schnipsel irgendwo hinzufügen oder mal eben fix Schriftgröße oder Linkauszeichungsfarbe in der CSS-Datei varieren konnte, muss man heute endlos komplizierte Stylesheets durchwühlen und rumtesten, bis man die Funktion gefunden hat, die Wirkung zeigt. Na klar, dem Laien wird es nun wesentlich einfacher gemacht im Rahmen des vorgebene Algorithmus das Theme nach seinen Wünschen anzupassen, wer diese Regeln aber verlassen will und nur ein interessierter Laie und kein html/css/php-Profi ist, hat es nun ein ein ganze Ecke schwerer. Oder man setzt halt auf ein altes, simples Theme und nimmt sich die Zeit ein eigenes Child aufzubauen, der den Vorstellungen entspricht. Aber wer macht das schon bzw. wer hat dafür noch Zeit?

Egal. Interessanter ist es aber, dass viele der alten Bloggerkollegen und -kolleginnen (muss man jetzt eigentlich gendern…?) verschwunden und/oder unbekannt verzogen sind. Einige wenige Leuchttürme der ehemaligen Jenaer und Thüringer Blogosphäre, in der ich persönlich Social-Mediamäßig sozialisiert worden bin, existieren noch und blubbern so fleißig vor sich hin… aber viel sind verschwunden oder nur noch bei twitter, oder so. Das ist lustig, da ich meiner naiven und jugendlichen Leichtsinnigkeit immer gedacht habe, so Bloggen, das ist eine Wesenfrage und somit eine Sache für die Ewigkeit. Wer einmal damit angefangen hat, der wird nie wieder aufhören. Aber so ist es nicht. Leben ändern sich, Prioritäten variieren und Zeit wird knapp. Dies gilt vor allem, wenn man mit seinem Blog nie so richtig die Anonymität verloren hat. Also nie „Erfolg“ hatte oder populär geworden ist. Diejenigen, die es geschafft hatten, sind mehr oder weniger immer dabei hängengeblieben. Egal.

 

 

Ist es wirklich sinnvoll jetzt schon, den Tod der PDF in der Wissenschaft zu fordern?

workplace

Als ich mir vor über einem Jahr ein iPad kaufte, war ich lange Zeit skeptisch, ob ich irgendwann einmal darauf auch Text lesen werde. Also jetzt nicht Texte im Internet, sondern allerlei Geschriebenes in Form von Papern, Bücher etc. Das iPad sollte nicht nur meinem privaten Medienkonsum bereichern (was es tat), sondern vor allem auch im akademischen Umfeld zum Einsatz kommen und da meinen Workflow digitalisieren. Es ging mir nicht nur darum, Papier zu sparen, sondern die Digitalisierung von Zitaten, relevanten Textstellen für mich zu vereinfachen. Denn bisher machte ich es, wie vermutlich ein Großteil der geisteswissenschaftlichen (!) Forschung und Studierendenschaft.

Wenn ein Fachbuch oder ein Fachtext nicht digital (das heißt für gewöhnlich als PDF) vorlag und das war bis 2010 fast immer der Fall, dann ging ich in die Bibliothek, bemühte die Katalogsuche und Fernleihe und organisierte mir die entsprechende Druckausgabe des gesuchten Werks. Wenn dies erfolgreich war, schnappt ich mir das Buch mitsamt Kopierkarte und stellte mich in die Kopierzimmer-Reihe und wartete. Wenn ich an der Reihe war, atmete ich betört den Tonergeruch ein und kopierte mir, wenn möglich auf Recyclingpapier, die Texte, die ich anschließend zusammenhefte, durchlas, kommentierte, ggfs. exzerpierte und in riesigen Ordner, Ablagen und Hefter archivierte. Benötigte ich Textstellen, dann setzte ich mich an den Rechner und tippte vergnüglich Relevantes in das Bibliographieprogramm oder die Arbeit.

Aus heutiger Sicht betrachtet bot dieser Workflow natürlich noch Optimierungsmöglichkeiten. Und heute 2013 ist es dann auch ein wenig anders. Zum einen sind natürlich mehr Bücher und noch mehr wissenschaftliche Artikel elektronisch als PDF verfügbar. Zum anderen konnte ich durch Buchscanner, OCR-Software (Adobe Acrobat Pro), PDF, Dropbox und das iPad für mich einen angenehmeren Workflow gestalten. Das heißt aber auch, dass noch heute gilt: wenn ein Text nicht digital verfügbar ist bzw. einfach zu teuer, um ihe zu erwerben, mache ich mich in die Bibliothek auf und suche mir das entsprechende Werk. Anstatt aber papierne Kopien zu erstellen, stehe ich nun am meist unbesetzten Buchscanner, den es auch in fast jeder großen Universitätsbibliothek gibt, und scanne mir die gewünschten Texte zusammen.
Am Rechner führe ich eine Texterkennung durch und lese die so nun durchsuchbaren und gut kommentierbaren zu fast 90% auf dem iPad1 Logischerweise fällt auch das Abtippen von relevanten Textstellen und Zitaten weg. Durch simples Copy-and-Paste ist ein wichtiger Text ruckzuck bibliographiert und exzerpiert2.

Ich bin an sich recht zufrieden mit diesem Ablauf. Weniger Papier muss herumgeschleppt werden. Auf allen Geräten, die ich besitze, ist mein gesamter Literaturapparat verfügbar. Kommentare und Notizen können nicht nur leicht editiert, sondern auch zeitlich als auch endgerätetechnisch nachverfolgt werden. Auch entfällt das nervige Abtippen von Textstellen. Aber es ergeben sich noch mehr Vorteile. Hier sei vor allem die Durchsuchbarkeit des einstigen Papiers genannt. Ich verbrachte früher viel Zeit mit dem Anlesen von Textteilen, die für mein Interesse nicht vordergründig sind. Das Durchsuchen der durch ein OCR-Programm lesbar gemachten PDFs erleichtert mir das Auffinden von für mich relevanten Textstellen ungemein.

 

Halbig - bearbeitete Textseite

 

Mein Fazit ist also, dass ich mit meinem Workflow an sich ganz zufrieden bin. Ich forsche in einer Zunft, in der – anders als beispielsweise in vielen Naturwissenschaften aber auch zunehmend in anderen empirischen Wissenschaften – keine ausgeprägte Online-Journal-Kultur existiert. Die Norm ist oft das gedruckte Buch oder der im Sammelband abgedruckte Fachtext, der auch entsprechend nach Ausgabe und Seite zitiert wird. Deswegen fällt es auch auf, dass mein Workflow recht zentriert um das PDF herum aufgestellt ist, da sich auf diese Weise sozusagen Ausgabe und konkrete Seitenzahl mitdigitalisiert.

Aber das PDF steht in diesem Zusammenhängen stark in der Kritik. Es wird nicht nur hinsichtlich seiner kommerziellen Abhängigkeit zu Adobe, sondern auch wegen begrenzter Darstellungsmöglichkeiten auf verschiedenen Leseendgeräten kritisiert (Stichwort: sich zu Tode scrollen). Dies ist darauf zurückzuführen, dass es schießlich ein seitenbasiertes Format als Grundlage nimmt, welches sich dementsprechend nicht hochgradig skalierbar zeigt wie etwa eine html-Seite oder eine auf XML basierendes E-Book. Diese wesentlichen Punkte sind offenbar der Grund, warum man sich wünscht, die „Krücke“ PDF zugunsten neuer, vorteilhafterer Formate endlich loszuwerden.

Als Alternativen werden dabei natürlich der html-Artikel (Smart Article) sowie das XML-basierte eBook (sei es als .epub, .mobi usw.) ins Auge gefasst. Die Vorteile dieser Formate liegen natürlich auf der Hand. Sind geboren im Bildschirm und nicht mehr eine reine Abstraktion des Buches bzw. der papiernen Textseite. Dementsprechend spricht ihre erhöhte Anpassbarkeit für die Lesbarmachung auf verschiedene Endgeräte, die Durchsuchbarkeit (obwohl sie diese mit einer durch OCR-Techniken durchsuchbaren PDF teilen) sowie die Durchsetzung des Textes mit nicht-textuellen Elementen für diese Formate.

Was jedoch ganz klar aufgegeben werden muss – sowohl bei html-Artikel als auch den eBook-Formaten – ist das Denken innerhalb der Normseite. Paginierung, Seitenzahlen etc. sind für diese Formate einfach nicht mehr von Belang. Und natürlich kann man sich fragen, warum man gerade beim digitalen Lesen noch Seitenzahlen benötigt. Denn sobald es Seitenzahlen gibt, gibt es logischerweise ein irgendwie geartetes System von Seite, das dann vermutlich auch als Setzungsparadigma verwandt wurde und dementsprechend die freie Skalierbarkeit von html-Text oder eBook zunichtemacht.

So sehr ich natürlich die Möglichkeiten der neuen Formate begrüße, habe ich damit auch so meine Sorgen und Zweifel. Zum einen darf das Infragestellen von Seitenzahlen nicht darauf hinauslaufen, jegliches Auffindungssystem (und nein, ich meine jetzt nicht die konkrete Suche nach Textstellen) innerhalb des digitalen Textes gleichsam mit zu verwerfen. Zum anderen darf es nicht darauf hinauslaufen, dass die fehlende Lösung eines geeigneten Auffindungs- und Verweisungsystems des digitalen Fachartikels zu einer Infragestellung wissenschaftlicher Zitierweisen führt. Die fürchterliche Neigung vor allem im englischsprachigen Raum und naturwissenschaftlichen Metier das Zitat herrlich unkonkret zu lassen, indem nur noch auf die gesamte Publikation verwiesen wird (see Schreiber 2012) kann vielleicht in einer von Papern und Zeitschriften dominierten Forschung noch ausgehalten werden, sobald es aber um Bücher und verschiedenster Publikationen geht, ist dieser Zustand nicht auszuhalten. Es genügt bei einem Hinweis auf Habermas’ Kritik an Derrida Habermas 1983 hinzurotzen. Es ist ein Service für den Leser und ein Element wissenschaftlicher Redlichkeit hier konkret zu werden: Habermas 1983, S. 219-247. Auch bei einer Zitation eines Gedankens oder Gedankengangs (das berühmte indirekte Zitat) ist es in einer Buchkultur, die die gegenwärtige Geisteswissenschaft immer noch ist, notwendig konkret zu werden, denn sonst versperre ich dem Leser meines Textes das Verstehen und den kritischen Nachvollzug meines Gedankengangs.

Auch sollte berücksichtigt werden, dass Texte nicht nur im Digitalen exisitieren und somit eine Auffindungs- und Verweissystem auch offline anschlussfähig sein muss. Und an einem solchen Auffindungssystem kranken all diese neuen Textformate des Digitalen, weshalb es auch offenbar noch verfrüht ist, den Tod der PDF in der Wissenschaft einzufordern.

Weder der Smart Article noch das eBook haben keine erkennbar solide Strategie für ein Zitationssystem entwickelt. Zumindest keines, das auch den Sprung aus dem Bildschirm heraus schaffen könnte und einigermaßen mitteilsam bleibt. Denn natürlich könnten Zitate und entsprechende Verweise mithilfe von Links umgesetzt werden. Aber dies funktioniert nur im rein digitalen Paradigma. Bekanntlich sollten aber Informationen auch außerhalb des Rechners mitteilsam bleiben. Aber bis heute habe ich kein entsprechendes Zitationsystem umgesetzt gesehen. Weder iBooks noch der Kindle lassen einen Ansatz eines Zitationssystem erkennen, bei dem konkrete Textstellen herausgestellt werden können.

Alle kehren gezwungenermaßen aber gleichzeitig unsinnigerweise zurück zur Seite (iBooks) oder zur Position (kindle) zurück. Warum gezwungenermaße? Offenbar benötigt der Leser ein solches Referenzsystem. Und dies gilt aus obigen Gründe im besonderen Maße für die Wissenschaft. Warum unsinnig? Weil diese Zählsysteme – gerade bei iBooks – nicht zuverlässig sind. Ändere ich den Screen, die Schriftgröße oder das Layout im Allgemeinen, dann ist die zitierte Stelle an diesem Punkt des Dokumentes nicht mehr auffindbar. Ich kann in die Literaturangabe ja nicht wirklich noch Informationen zu den von mir verwendeten Darstellungsoptionen geben, oder?

Ohne ein plattformübergreifendes Zählsystem bleiben ebooks oder html-Artikel für die Wissenschaft vorerst nur schwer nutzbar. Was bietet sich also als Alternative an? Zeichen, Wörter, Absätze? Schließlich sind Zeichen, Wörter oder Absätze wesentlich nun einmal im Text vorhanden und offenbar adäquater als die durch das digitale Format verlorengegangene Seite. Aber  in Wirklichkeit sind Zeichen oder Wörter keine sinnvolle Größe. Sie spielen vor allem innerhalb des Editierungsprozesses eine große Rolle, aber für den akademischen und nicht-akademischen Endanwender scheinen sie mir sehr unpraktisch. Zu riesig können gerade bei umfangreichen Werken oder Texten die Zahlen werden. Wie findet man sie auf? Muss man abzählen? Gibt es ein passables Zählsystem? Absätze sind genauso wenig hinreichend adäquat. Zwar werden die Zahlen nicht allzu riesig, aber was macht man, wenn ein Text nicht in Absätzen strukturiert oder in Absätzen überstrukturiert ist? Hier fehlt eine sinnvolle Vergleichbarkeit zwischen Texten.

Die Seitenzahl war immer eine vom konkreten Textlayout unabhängige Größe, die ausreichend genau bzw. hinreichend grob war, um einen guten Kompromiss zwischen Auffindbarkeit von Textstellen und schneller, merkbarer Weitergabe von Zitationsstellen zu gewährleisten. Auch besaß die Seitenzahl immer die Eigenschaften einen Aussage über den Umfang des Textes zu machen.

Ich wiederhole mich: Solange es kein adäquates, plattformübergreifendes, formatunabhängiges Zählsystem gibt, dass als Basis eines Zitationssystems fungieren kann, scheinen mir die Rufe nach dem Tod der PDF und der Inthronierung von html-Artikeln und eBook-Formate als verfrüht. Da ist noch ein bisschen was zu tun.

  1. Ich habe dazu zahlreiche PDF-Reader-Tools für das iPad ausprobiert und mich konnte am meisten der GoodReader überzeugen. Auch wenn es momentan bei dieser App noch an einem Update für iOS7 mangelt. Die vielen Absürze nerven. Aber man ist ja leidensfähig. []
  2. der Vollständigkeit wegen: Ich verwende zur Katalogisierung meiner Bibliographie Citavi []

RaspberryPi-Bequemlichkeiten

Raspberry Pi -Logo

Es flog zunächst etwas unter meinem Radar. Immer wieder wurde darauf aufmerksam gemacht – dieses kleine Platinchen, das doch soviel kann – ein volles Media-Center, das per HDMI HD-Content wiedergeben und 5.1-Sound ausgeben kann, das mit Festplatten, Filmen, Mp3s etc. gefüttert werden kann und dabei nicht mal 50 Euro kostet. Als sich dann herausstellte, dass es möglich war, auch Apples Airplay zu nutzen bzw. das ganze dann noch gemütlich per iPhone, iPad oder Mac steuern zu können, hatten sich genügend potentielle Kaufargumente zusammengestaut, diese Gerät mit den omniösen Namen zu kaufen: Das Raspberry Pi.

Aber die Angst sitzt tief. Man dringt bei der Installation und Nutzung eines Pi’s – so glaubte ich – in technische Tiefen vor, die ohne Kenntnis von Kommandozeilen, Lötkolben und Tratra, kein gutes Ende nehmen kann. Aber weit gefehlt. Sowohl das Gerät selbst, als auch die benötigte Software sind auch für Anfänger nach ein bisschen Einarbeitungs- und Eindenkungszeit gut dokumentiert.

Mein geplanter Haupteinsatzzweck ist dabei – relativ simpel – die Verwendung als AppleTV-Ersatz. Der kleine Pi hängt bei mir sozusagen an der Stereoanlage und am Beamer und bei Bedarf wird mit Airfoil oder über  AirPlay Medien verschiedenster Art gestreamt. Musik stellt dabei fast überhaupt klein Problem dar, Videos funktionieren noch so mittelprächtig. Häufig bleibt der Stream dann hängen und der Player auf dem Sender-Gerät muss neugestartet werden. Es ist dabei egal, ob AirPlay direkt oder vermittelt über Airfoil verwendet wird.

Die Software für das Pi, um all diese Funktionen verwenden zu können, ist dabei raspbmc. Dabei handelt es sich letztlich nur um eine Linuxsoftware, die wiederum die freie MediaCenter-Software XBMC für das Pi aufbereitet. Dementsprechend kann man auf viele Funktionen mitsamt des kompletten Ökosystems von XBMC in Form iOS- und Androidanwendungen zurückgreifen.

Schön sind auch die zahlreichen Erweiterungen, mit denen man bequem auf die ganzen Media-APIs wie Youtube oder soundcloud zurückgreifen kann. Letztlich stimmen einfach Preis und Leistung. Mit ein bisschen rumprobieren hat man schnell die üblichen Hürden wie es bucht sich nicht ins WLAN ein oder das oder jenes wird nicht richtig abgespielt. Im Zweifelsfall hilft dann immer google und die zahlreichen Foren und Tutorials im Netz weiter. Wer also sein alte Stereoanlage gut mit dem neuen Schnick-Schnack kabellos verbinden will, hält hier seine Lösung in den Händen. Und wer Lust daran gefunden hat, kann mit so einem kleinen RaspberryPi noch viel viel mehr realisieren. So z.B. eine eigene Dropbox.

Kleiner Nachtrag zur Drossel

Interessante Thesen, auf die Gunnar Sohn in seinem Kommentar verweist. Der Drossel-Song „Funktional kaputt“ vom letzten Beitrag kann übrigens jetzt auch im iTunes Music Store etc. erworben werden. Die Einnahmen fließen als Spende an die Digitale Gesellschaft.

Der Internetnutzer der mittelfristigen Zukunft – Zur Telekom-Drosselung

Ist das Internet nun funktional kaputt?

Dies ist das Intro der letzten Sendung von mobilemacs und es wurde zusammengestellt aus kleinen Hörschnipsel der vorherigen Sendung, zu der Clemens, Tim, hukl, Roddi und co. über die bevorstehende, damals noch nicht vollends bestätigte Drosselung der DSL, VDSL und FIBER-Anschlüsse seitens der Telekom diskutierten (ab 1h:43min:00sec). Seit gestern ist dieses neue Geschäftsgebahren des Oligopolisten nun bestätigt.

Alle Flatrate-Tarife der Telekom werden letztlich zu Volumentarifen umgewandelt, insofern jeden Vertragsform ein entsprechendes Highspeed-Volumen pro Monat zugeeignet wird. Nach Verbrauch dieser scheinbar stattlichen Zahl (man sollte bedenken, dass es sich dabei um die Summe aus Down- und Uploads handelt), wird der Internetanschluss auf eine einheitliche Internetbandbreite und somit eine Geschwindigkeit von 384 Kbit/s reduziert.1

Hier mal im Überblick die entsprechenden Volumina zu den einzelnen Verträgen:

Tarif Datenvolumen
Call & Surf mit DSL 75 GByte
Entertain mit 16 MBit/s 75 GByte
Call & Surf mit VDSL 200 GByte
Entertain mit VDSL 200 GByte
Call & Surf mit Fiber 100 300 GByte
Entertain mit Fiber 100 300 GByte
Call & Surf mit Fiber 200 400 GByte
Entertain mit Fiber 200 400 GByte

Wie bereits erwähnt, kommt es nach dem Verbrauch dieser Kontingent zu entsprechenden Standarddrosselung, die aber begrifflich der Sache nicht nahe kommt. Surfte man vorher mit technisch möglichen 100 Mbit/s, kann eine Geschwindigkeitsreduktion auf 384kbit/s eigentlich mit einer Abschaltung des Anschlusses verglichen werden. So auch die Argumentation von Clemens im obigen Hörschnipsel. Ich glaube, viele kennen dieses Phänomen, wenn am Ende des Monats das Datenvolumen des Mobilfunkvertrages aufgebraucht ist, und man für den restlich Monat auf max. 64 KBit/s (Download) und 16 KBit/s (Upload) beschränkt ist. Gut und erträglich ist das nicht, aber wir als Konsumenten haben es leider durchgehen lassen und es zudem dem Mobilfunkanbietern im Allgemeinen erlaubt, dies auch noch Flatrate nennen zu dürfen.

Was kann man mit 384 kbit/s nun noch anfangen? Rein rechnerisch wäre Skype noch möglich (einfacher Anruf bzw. Videoanrufe (ohne High-Q und HD).  Aber was macht man, wenn ein zweiter Rechner, der des Partners oder der des Mitbewohners gleichzeitig im Netz sind und dort nur mal fix die die Emails überprüft oder nach einem Rezept für einen Pflaumenkuchen. Stoppt man dann man eben den Skype-Call? Richtet man sich jeweils individuelle Zeiten für die Internetbenutzung ein… wie damals zu Zeiten von Modem (56 kbit/s) oder ISDN (64kbit/s bzw. 128 kbit/s)? Meiner lebensweltlichen Erfahrung nach werden die meisten Internetanschlüsse, trotz der steigenden Zahl von Singleaushalten, geteilt: in Familien, in WGs, Firmen und Zweckgemeinschaften. Diese Engpässe sind mit der einheitlichen Internetbandbreite der Telekom vorprogrammiert.

Und auch hinsichtlich des Volumens von 15 bis 20 Gigabyte, das die Telekom für den durchschnittlichen Internetnutzer  bzw. ihren Kunden ausgibt, habe ich so meine Zweifel. Ich selbst habe in einem Zwei-Personen-Haushalt mit 6000er-Leitung einen Verbrauch im letzten Monat von knapp 90 Gigabyte gehabt – wäre somit schon in die Abschaltung hineingefallen. Und auch hier: Wenn ich mich meiner lebensweltlichen Erfahrung so zuwende und meine Altersgenossen, Bekannten, Kollegen und Freunde betrachte, scheine ich zwar in Teilen netzaffiner zu sein, aber bin dadurch kein brutaler Bandbreitenverschleißer geworden. Das heißt, im Vergleich bewegt sich mein Internetkonsum im guten Durchschnitt, was das Nutzen von Streaming-Angebote (dies sind ja die Brocken, die das große Datenvolumen hervorrufen) und das allgemeine Surfverhalten anbelangt. Und es sei angemerkt, dass ich und meine Partnerin einen großen Teil des Tages im Büro verbringen und den Anschluss der Universität benutzen.

Wie kommt also die Telekom auf diese Zahl? Wie wir es bereits bei den Volkseinkommen- und Reichtumsdebatten erlebt hatten, ist ein Durchschnittswert eine kniffelige Sache. 1. Welche Kunden meint die Telekom mit allen Kunden? Sind darin gar die Kunden enthalten, die kein DSL/VDSL/FIBER nutzen, sondern womöglich noch mit Analogmodem oder ISDN surfen? Diese drücken natürlich den Durchschnitsswert erheblich, da es mit diesen Vertragsarten überhaupt schwer wird an nur einem 1 Gigabyte zu kratzen. 2. Gibt es letztlich auch eine vermutlich nicht zu vernachlässigende Zahl an Kunden, die breitbandtechnisch hochgradig überversorgt sind. Dies aber nur, weil die Telekom (wie auch fast alle anderen Anbieter)  für diese entsprechend keine sinnvollen Tarife bereitstellt. Wer heute eine Festnetzanschluss will, will zugleich einen Festnetzflaterate. Diese kostet aber bereits knapp 30 Euro (Call Comfort) und ist somit nur gut 5 Euro günstiger als der günstigste Call-And-Surf-Tarif, der sowohl eine Festnetzflaterate als auch eine Internetflaterate beinhaltet. Natürlich wird der Kunde dann eher zum Komplettpaket greifen, auch wenn er mit eine Flatrate nichts anfangen kann, da er tatsächlich einfach kaum im Internet surft bzw. noch weniger bandbreitenintensive Inhalte konsumiert. Dieser Art Kunde, so hart das klingt, wird aber mittel- und langfristig aussterben und sollte für die Telekom, die auch in Zukunft ein funktionierendes Geschäftsmodell haben will, nicht die Richtschnur bilden.

Denn beobachten wird die aktuellen Entwicklungen des Internets als Technologie, so erkennen wird, dass alle Ampeln auf grün stehen, dass das Internet mit alle unseren Lebensgewohnheiten immer enger verzahnt wird: Komunikation, Informationsaustausch und vor allem Datenaustausch sowie Medienkonsum. Beispiel Kosum von Musik: Sie ist, wie Sascha Lobo richtig anmerkt, längst nicht mehr eine Frage von Festplattengröße, sondern eine Frage der Bandbreite geworden; Beispiel Datenaustausch: Dropbox oder GoogleDrive sind nur der Anfang. Die Tendenz komplette Backups zur Datensicherung ins Netz zu verschieben wird in den nächsten Jahren im wichtiger. Die Lebenswelt der Menschen verwächst also mit dem Internet und seinen Möglichkeiten sowie der Möglichkeit des Zugangs zu diesem. Menschen, die Briefe senden, werden verschwinden. Menschen, die 19:55 Uhr auf den Beginn der Tagesschau warten, verschwinden. Menschen, die Fotos ausdrucken und an Oma schicken, verschwinden. An ihre Stelle rücken Menschen, die es gewohnt sind, Medien – Film, Dokumentation, Serien, Radiobeiträge etc. – zeitsouverän zu konsumieren, dafür brauchen sie das Netz. Kaum eine Kamera macht heute noch ein Fotos mit unter 6 Megapixel, nahezu jeden Filmaufnahme – auch aus mit der privaten Kamera – ist in HD gedreht, um diese zu teilen, zu zeigen, braucht man Netz, Bandbreite und Datenvolumen. Forschungs- und Rechercheergebnisse finden sich zur kollaborativen soziale Arbeit an einem zentralen Ort im Netz um unter Echtzeitbedingungen in neues Wissen und neue Erkenntnisse transformiert zu werden. Dafür wird ebenfalls schnelles, zuverlässiges Internet benötigt.

Die Diagnose der Telekom, dass das Datenvolumen im Netz rapide zunimmt und noch rapider zunehmen wird, stimmt also. Und ihre gegenwärtige Reaktion darauf verwundert nicht. Es ist die Reaktion, die einem privatwirtschaftlichen Denken entspringt. Indem sie die Internetanschlüsse quasi außer Funktion setzt, wird die Folge entscheidend. Was passiert, wenn das Volumen nicht ausreicht? Der Kunde wird entweder überlegen, in einen höheren Tarif zu wechseln, der ihm mehr Volumen bietet – hierbei stellt sich aber das Problem, dass er dieses höher Volumen durch eine größer Bandbreite gleich wieder schwächt – oder er wird pro Monat draufzahlen und sich weiter „Highspeed-Kontingente“ kaufen müssen, um der einheitlichen Internetbandbreite zu entrinnen und seinen Internetnschluss wieder in Funktion zu setzen. Bei all dem gewinnt die Telekom: zum einen weil sie die dadurch dem Preiskampf um Internetanschlüsse im gewissen Sinne Einhalt gebieten kann (aufgrund des verzerrrten Marktes in diesem Bereich, ist es sehr wahrscheinlich, dass andere Anbieter nachziehen werden), letztlich den Kunden zu teuren Produkten nötigt und am Ende doppelt abkassiert.

Die Telekom sieht die Realität, kennt den Nutzer der mittelfristen Zukunft, der Bandbreite braucht, um zukünftig seinem täglichen Leben nachzugehen (dies impliziert auch, dass der Internetnutzer der mittelfristigen Zukunft Netzversorgung als ein elementarstes Gut betrachten wird, ohne das es letztlich gar nicht mehr geht und bereitet nun alles vor, um den maximalen Profit für sich daraus zu schlagen. Dass dabei Innovation, Bildung, die in Deutschland stark vom Einkommen abhängt, soziale Beteiligung als auch die Netzneutralität mit Füßen getreten werden, ist die notwendige und gefährliche perspektivische Konsequenz, einer Entwicklung, die mit dem Internet als Luxusgut für Nerds und Informatiker begann und sich gegenwärtig weiterentwickelt hat – zu einem Internet als elementares Grundgut des privaten und öffentlichen Lebens, gar Menschenrecht für den Bürger/Internetnutzer der mittelfristigen Zukunft.

Es ist zu hoffen, dass sich Protest regt und an dieser Stelle nicht alles dem verzerrten Kommunikationsmarkt überlassen wird. Es ist wichtig, dass der Bürger und somit auch der Gesetzgeber erkennt, welche Bedeutung ein stabiles, bezahlbares und gut ausgestattetes Internet in einer modernen Demokratie und Volkswirtschaft spielt und dementsprechend regelnd, sowohl moralisch als auch konkret handelnd, eingreift.

Man beachte bitte auch meine kleine Linksammlung von interessanten Beiträgen der letzten Tage zum Thema.

  1. Vgl. Pressemitteilung der Telekom []