urbandesire

searching since 2004

Kategorie: Tooltime (Seite 1 von 6)

Own Dropbox Cloud

Aus der Kategorie: Post-Later. Habe diesen Entwurf vor gut 3 Jahren geschrieben, aber nie beendet. Doch das, was darin steht, gilt unverändert heute noch. Updates gibt es obendrein zum Thema Cloud-Speicherlösungenprobleme für Anfänger Fortgeschrittene. 

Wenn man von Dropbox eine Email bekommt, dann hat man diese selbst herausgefordert. Indem beispielsweise eine App authorisiert werden will, in der Dropbox herumzufuhrwerken. Vor ein paar Tagen (also Zeitblase: vor ein paar Tagen vor ziemlich genau drei Jahren) flog aber eine unaufgeforderte Email ins Postfach. Mitteilung war, dass der verdiente Speicherplatz durch die Teilnahme am Space Race 2013 ab Anfang März 2015 wieder von einem genommen wird.

Ziel war es damals, so viel wie möglich Angehörige seiner eigenen Universität (Studierden, Promovierende, Dozenten, ja sogar Mitarbeiter) dazu zu bewegen, am Space Race teilzunehmen und etwas mehr Schatten-IT in die Service-Wüste Universitätsinfrastruktur Universitätsinfrastruktur mit bwSync&Share, GWDG Cloud etc. basierend auf dem Service von PowerFolder zu bringen. Je mehr, desto besser der Score und desto mehr zusätzlichen Speicherplatz gab es: Prestige und Speicherplatz.

Als Angehöriger der Universität Tübingen gab es damals 15 GB (maximal möglich waren damals, soweit ich mich erinnern kann, 25 GB). Das war schön. Ich promovierte zu dieser Zeit in Tübingen im Rahmen des Graduiertenkollegs Bioethik und klatschte die Dropbox mit all meinen erworbenen, gescannten und generierten PDFs zu, syncte sie durch die Welt und über die Devices. Perfekt, das digitale Buchregal mit knapp 10 GB Daten in der Cloud. Von jedem Gerät überall erreichbar. Das war schön. Jetzt (also Zeitblase: jetzt vor drei Jahren) ist das vorbei. Ich verdrängte und vergaß, dass dieses Geschenk nach gut 2 Jahren wieder von mir genommen wird. Vermutlich nahm ich damals an, dass nach zwei Jahren Dropbox ein erneutes Geschenk bereithält und den Speicherplatz einfach stehenlässt. Falsch gedacht; Weg ist er.

Marketing at its best

Leicht perfide aber auch geniale Taktik: Die Leute in die Dropbox hineintreiben, indem ihnen viel Platz zur Verfügung gestellt wird; das ganze dann zwei Jahre sich verstetigen lassen und anschließend diesen durchaus liebgewonnenen Speicherplatz wieder nehmen – sicherlich mit dem Ziel die Leute vom einem Abonnement zu überzeugen.

Man könnte mich auch mit dem Abo an sich überzeugen. Ich wäre gerne bereit zu zahlen, aber: es ist zu viel und zu teuer. Man bedenke: Entweder 2 GB for free (Aufstockbar auf bis zu 16GB durch Einladungen etc. – aktuell bei mir ca. 8,88 GB) oder dann gleich 1 TB (1000 GB) für momentan 99 Euro jährlich.

Diese Grafik von Dropbox versinnbildlicht ein wenig das Problem. Die Verhältnisse stimmen überhaupt nicht. 2 GB zu 1000 GB (1TB). In der Grafik gleich zweimal nicht. Screenshot von: dropbox.com

2GB for free und der nächste Schritt gleich 1000 GB für gut 100 Euro jährlich? Kann man das nicht etwas feingranulierter gestalten. Oder lohnt es sich nur so? (“…the company spent far too much time and energy chasing a non-existent consumer opportunity…”) Wer um Himmelswillen, außer im professionellen Dateischieberbereich, Teams und Agenturen, braucht 1TB in der Cloud? Ich verstehe ja den rundlos sorgenfrei Ansatz, aber mal ehrlich… Thema Breitbandausbau … wieviele Monate soll ich in Deutschland veranschlagen, um 1000 GB in die Cloud zu laden. Oder anders: 1000 GB impliziert, dass auch große Dateien gesynct und abgelegt werden sollen. Dies scheint mir bei all unseren Wald-und-Wiesen-Internetserviceprovidern einschließlich der Telekom einfach nicht sinnvoll machbar. Über Mobile will ich an dieser Stelle gar nicht sprechen.

Wieso nicht nur 30, 60 oder zumindest 100 GB für einen entsprechend vernünftigen Preis? Ich sehe ein, dass Storage nicht die alleinige und eigentliche Leistung ist, die da bei Dropbox verkauft wird… Smart Sync, Steuerung der Freigaben, Portfolio und vieles mehr … Korrektur: für diese neuesten und feinen Features muss man in den dopplt so teuren Professional-Tarif wechseln: 1000 GB für gut 200 Euro jährlich. Wie auch immer: Für mich geht das in dieser Konstellation einfach nicht. Obgleich ich natürlich die ganzen neuen Features wirklich total anregend finde.

So überlegte ich (ja, Zeitblase: damals vor drei Jahre) ein wenig und stellte fest, dass ich ja bei meinem Webhoster – der euch auch dieses sporadisch befüllten Blog ausliefert – bereits für meine ganz persönliche Partition einer Festplatte im Internet zahle. 60 Euro für gut 100 GB 200 GB und unbegrenzter Bandbreite und das im Jahr. Davon werden gerade mal 6 GB durch Website-Daten genutzt. Warum diesen freien Platz nicht ausnutzen, wo er denn schon mal bezahlt ist?

ownCloud

Meine präferierte Lösung sollte, wie sicherlich viele die paar letzten verstrahlten Leser dieses Blogs erahnen, ownCloud werden. WebDAV und all solcher Spaß funktioniert leider nicht richtig oder ist dann doch zu unbequem.

OwnCloud2-Logo.svg

Im Prinzip ist ja ownCloud die kleine Dropbox für den Hausgebrauch und zum Selberbasteln. Viel soll ja auch angeblich nicht zu tun sein, wenn man die Datenbank einmal angelegt. So denkt man. Die Dateien sollen ja nur zwischen den Geräten gesynct seinen bzw. ab und an mal geteilt werden, was sich bei ownCloud im Webinterface recht einfach (sogar mit Passwortschutz …!!!… ) erledigen ließe. Eine aktive Entwicklercommunity ist obendrein auch noch dabei, was sicherlich eine solide weitere Entwicklung verspricht.  Aber…

Drei Jahre später. Weder Version 7, 8, 9 noch 10 von ownCloud haben mich überzeugen können. Ohne wirklich Kenntnisse und Zugriffe auf den Server bleibt das alles ein Basteln und Geiere und der Traum einer günstigen eigenen Dropbox-Alternative, da der Speicherplatz doch eh da ist, nur ein Wunsch. Weder habe ich das Gefühl, dass ich die ownCloud gut und sicher nach außen schützen, noch dass ich bei Fehlern jedweder Art angemessen reagieren kann. Schlimmer noch sind jedoch Updates der ownCloud-Installation selbst, die nie funktioniert haben und immer eine Neuinstallation nach sich zogen. Das Herumsuchen in englischsprachigen Communityforen, warum das jetzt nicht klappt, synct oder diese oder jene Fehlermeldung kommt, macht(e) mich wahnsinnig.

Absolutes K.O.-Kriterium und vielleicht der größte Vorteil kommerzieller Cloudanbieter ist jedoch der Schutz vor Datenverlust durch die Bereitstellung von Backups und Versionierungen. Mein Webhoster teilte mir in der Vergangenheit bei anderen Vorfällen bereits mit, dass ich mich jederzeit selbst um meine Daten und die Datensicherheit zu kümmern habe. Bei Datenverlust durch eigenes Verursachen – was sicherlich sehr weit ausgelegt wird – gibt es keine Möglichkeit ein Backup (kostenfrei) einzuspielen. Bevor jetzt irgendwas passiert und ich (noch mehr) Frust habe, lass ich das dann lieber mit der ownCloud. Mir fehlen einfach die ausreichenden Kenntnisse, es ist nicht so einfach wie WordPress oder ähnliches.

GoogleDrive

2018: In der Zwischenzeit habe ich mich dazu entschieden, meine Dateien in den Schlund von Tante Google zu werfen. Dort gibt es das nette Angebot von 100 GB für 20 Euro im Jahr. Genau mein Fall und absolut ausreichend. Ein okayes Webinterface und mit Insync gibt es auch einen schmalen aber flotten Client (Krypto möglich, aber umständlich), um die Dateien zu syncen. Dies rundet das derzeitige Setting ab. Auch wenn jetzt Google alles weiß, was ich so lese. Was soll man tun? Finanziell: Da ich jetzt aber etwas mehr eigenes Geld verdiene, ist dies dann doch nicht mehr allzu schmerzlich. Vielleicht nur noch Schade. Die Dropbox mit ihren gut 9  GB gibt es auch noch und ist der alltägliche Allrounder. Letztlich aus dem Grund, weil weitverbreitet, hübsch und  mehrgleisig fahren ist sowieso gut. Zusätzlich musst dann noch ein iCloud-50-Gb-Abo her, um für ca. 12 Euro im Jahr die Fotos und Backups der Apple-Geräte zu verwalten. 🙁

Hier noch eine offenbarende Übersicht:

  • 200 GB Speicher durch den Webhoster / Jahr = ca. 60 Euro (6 GB leider nur genutzt)
  • 108 GB GoogleDrive / Jahr = ca. 20 Euro (40 GB belegt)
  • 50 GB iCloud / Jahr = ca. 12 Euro (leider quer zum Workflow derzeit 24 GB belegt)
  • 8,8 GB Dropbox / Jahr = 0 Euro (davon 6,9 GB belegt)
  • beruflich 50 GB GWDG-Cloud = 0 Euro (davon 30 GB belegt)

Gelernt: Man kann einen Blogeintrag auch nach drei Jahren beenden.

 

Schlechte Facebook-Arbeit

Läuft nicht gut für die Jungs von Goodiware. Obwohl schon so viel Zeit seit dem iOS 7-Update ins Land gegangen ist und nahezu jeder PDF-Viewer für iPad und iPhone sich auf das neue Betriebssystem eingstellt hat, warten die durch Abstürze und Bedienungsprobleme geplagte Goodreader-Nutzer immer noch auf ein seit Monaten angekündigtes Update. Der Frust entlädt sich jetzt (bzw. schon eine ganze Weile) bei Facebook:

Kann jetzt sein, dass euer Adblocker (Adblock Plus oder Ghostery etc.) den eingebetten Facebook-Post blockt.

„Technology is usually fairly neutral. It’s like a hammer, which can be used to build a house or to destroy someone’s home. The hammer doesn’t care. It is almost always up to us to determine whether the technology is good or bad.”

Noam Chomsky

gefunden bei Carsten Pötter

Ist es wirklich sinnvoll jetzt schon, den Tod der PDF in der Wissenschaft zu fordern?

workplace

Als ich mir vor über einem Jahr ein iPad kaufte, war ich lange Zeit skeptisch, ob ich irgendwann einmal darauf auch Text lesen werde. Also jetzt nicht Texte im Internet, sondern allerlei Geschriebenes in Form von Papern, Bücher etc. Das iPad sollte nicht nur meinem privaten Medienkonsum bereichern (was es tat), sondern vor allem auch im akademischen Umfeld zum Einsatz kommen und da meinen Workflow digitalisieren. Es ging mir nicht nur darum, Papier zu sparen, sondern die Digitalisierung von Zitaten, relevanten Textstellen für mich zu vereinfachen. Denn bisher machte ich es, wie vermutlich ein Großteil der geisteswissenschaftlichen (!) Forschung und Studierendenschaft.

Wenn ein Fachbuch oder ein Fachtext nicht digital (das heißt für gewöhnlich als PDF) vorlag und das war bis 2010 fast immer der Fall, dann ging ich in die Bibliothek, bemühte die Katalogsuche und Fernleihe und organisierte mir die entsprechende Druckausgabe des gesuchten Werks. Wenn dies erfolgreich war, schnappt ich mir das Buch mitsamt Kopierkarte und stellte mich in die Kopierzimmer-Reihe und wartete. Wenn ich an der Reihe war, atmete ich betört den Tonergeruch ein und kopierte mir, wenn möglich auf Recyclingpapier, die Texte, die ich anschließend zusammenhefte, durchlas, kommentierte, ggfs. exzerpierte und in riesigen Ordner, Ablagen und Hefter archivierte. Benötigte ich Textstellen, dann setzte ich mich an den Rechner und tippte vergnüglich Relevantes in das Bibliographieprogramm oder die Arbeit.

Aus heutiger Sicht betrachtet bot dieser Workflow natürlich noch Optimierungsmöglichkeiten. Und heute 2013 ist es dann auch ein wenig anders. Zum einen sind natürlich mehr Bücher und noch mehr wissenschaftliche Artikel elektronisch als PDF verfügbar. Zum anderen konnte ich durch Buchscanner, OCR-Software (Adobe Acrobat Pro), PDF, Dropbox und das iPad für mich einen angenehmeren Workflow gestalten. Das heißt aber auch, dass noch heute gilt: wenn ein Text nicht digital verfügbar ist bzw. einfach zu teuer, um ihe zu erwerben, mache ich mich in die Bibliothek auf und suche mir das entsprechende Werk. Anstatt aber papierne Kopien zu erstellen, stehe ich nun am meist unbesetzten Buchscanner, den es auch in fast jeder großen Universitätsbibliothek gibt, und scanne mir die gewünschten Texte zusammen.
Am Rechner führe ich eine Texterkennung durch und lese die so nun durchsuchbaren und gut kommentierbaren zu fast 90% auf dem iPad1 Logischerweise fällt auch das Abtippen von relevanten Textstellen und Zitaten weg. Durch simples Copy-and-Paste ist ein wichtiger Text ruckzuck bibliographiert und exzerpiert2.

Ich bin an sich recht zufrieden mit diesem Ablauf. Weniger Papier muss herumgeschleppt werden. Auf allen Geräten, die ich besitze, ist mein gesamter Literaturapparat verfügbar. Kommentare und Notizen können nicht nur leicht editiert, sondern auch zeitlich als auch endgerätetechnisch nachverfolgt werden. Auch entfällt das nervige Abtippen von Textstellen. Aber es ergeben sich noch mehr Vorteile. Hier sei vor allem die Durchsuchbarkeit des einstigen Papiers genannt. Ich verbrachte früher viel Zeit mit dem Anlesen von Textteilen, die für mein Interesse nicht vordergründig sind. Das Durchsuchen der durch ein OCR-Programm lesbar gemachten PDFs erleichtert mir das Auffinden von für mich relevanten Textstellen ungemein.

 

Halbig - bearbeitete Textseite

 

Mein Fazit ist also, dass ich mit meinem Workflow an sich ganz zufrieden bin. Ich forsche in einer Zunft, in der – anders als beispielsweise in vielen Naturwissenschaften aber auch zunehmend in anderen empirischen Wissenschaften – keine ausgeprägte Online-Journal-Kultur existiert. Die Norm ist oft das gedruckte Buch oder der im Sammelband abgedruckte Fachtext, der auch entsprechend nach Ausgabe und Seite zitiert wird. Deswegen fällt es auch auf, dass mein Workflow recht zentriert um das PDF herum aufgestellt ist, da sich auf diese Weise sozusagen Ausgabe und konkrete Seitenzahl mitdigitalisiert.

Aber das PDF steht in diesem Zusammenhängen stark in der Kritik. Es wird nicht nur hinsichtlich seiner kommerziellen Abhängigkeit zu Adobe, sondern auch wegen begrenzter Darstellungsmöglichkeiten auf verschiedenen Leseendgeräten kritisiert (Stichwort: sich zu Tode scrollen). Dies ist darauf zurückzuführen, dass es schießlich ein seitenbasiertes Format als Grundlage nimmt, welches sich dementsprechend nicht hochgradig skalierbar zeigt wie etwa eine html-Seite oder eine auf XML basierendes E-Book. Diese wesentlichen Punkte sind offenbar der Grund, warum man sich wünscht, die „Krücke“ PDF zugunsten neuer, vorteilhafterer Formate endlich loszuwerden.

Als Alternativen werden dabei natürlich der html-Artikel (Smart Article) sowie das XML-basierte eBook (sei es als .epub, .mobi usw.) ins Auge gefasst. Die Vorteile dieser Formate liegen natürlich auf der Hand. Sind geboren im Bildschirm und nicht mehr eine reine Abstraktion des Buches bzw. der papiernen Textseite. Dementsprechend spricht ihre erhöhte Anpassbarkeit für die Lesbarmachung auf verschiedene Endgeräte, die Durchsuchbarkeit (obwohl sie diese mit einer durch OCR-Techniken durchsuchbaren PDF teilen) sowie die Durchsetzung des Textes mit nicht-textuellen Elementen für diese Formate.

Was jedoch ganz klar aufgegeben werden muss – sowohl bei html-Artikel als auch den eBook-Formaten – ist das Denken innerhalb der Normseite. Paginierung, Seitenzahlen etc. sind für diese Formate einfach nicht mehr von Belang. Und natürlich kann man sich fragen, warum man gerade beim digitalen Lesen noch Seitenzahlen benötigt. Denn sobald es Seitenzahlen gibt, gibt es logischerweise ein irgendwie geartetes System von Seite, das dann vermutlich auch als Setzungsparadigma verwandt wurde und dementsprechend die freie Skalierbarkeit von html-Text oder eBook zunichtemacht.

So sehr ich natürlich die Möglichkeiten der neuen Formate begrüße, habe ich damit auch so meine Sorgen und Zweifel. Zum einen darf das Infragestellen von Seitenzahlen nicht darauf hinauslaufen, jegliches Auffindungssystem (und nein, ich meine jetzt nicht die konkrete Suche nach Textstellen) innerhalb des digitalen Textes gleichsam mit zu verwerfen. Zum anderen darf es nicht darauf hinauslaufen, dass die fehlende Lösung eines geeigneten Auffindungs- und Verweisungsystems des digitalen Fachartikels zu einer Infragestellung wissenschaftlicher Zitierweisen führt. Die fürchterliche Neigung vor allem im englischsprachigen Raum und naturwissenschaftlichen Metier das Zitat herrlich unkonkret zu lassen, indem nur noch auf die gesamte Publikation verwiesen wird (see Schreiber 2012) kann vielleicht in einer von Papern und Zeitschriften dominierten Forschung noch ausgehalten werden, sobald es aber um Bücher und verschiedenster Publikationen geht, ist dieser Zustand nicht auszuhalten. Es genügt bei einem Hinweis auf Habermas‘ Kritik an Derrida Habermas 1983 hinzurotzen. Es ist ein Service für den Leser und ein Element wissenschaftlicher Redlichkeit hier konkret zu werden: Habermas 1983, S. 219-247. Auch bei einer Zitation eines Gedankens oder Gedankengangs (das berühmte indirekte Zitat) ist es in einer Buchkultur, die die gegenwärtige Geisteswissenschaft immer noch ist, notwendig konkret zu werden, denn sonst versperre ich dem Leser meines Textes das Verstehen und den kritischen Nachvollzug meines Gedankengangs.

Auch sollte berücksichtigt werden, dass Texte nicht nur im Digitalen exisitieren und somit eine Auffindungs- und Verweissystem auch offline anschlussfähig sein muss. Und an einem solchen Auffindungssystem kranken all diese neuen Textformate des Digitalen, weshalb es auch offenbar noch verfrüht ist, den Tod der PDF in der Wissenschaft einzufordern.

Weder der Smart Article noch das eBook haben keine erkennbar solide Strategie für ein Zitationssystem entwickelt. Zumindest keines, das auch den Sprung aus dem Bildschirm heraus schaffen könnte und einigermaßen mitteilsam bleibt. Denn natürlich könnten Zitate und entsprechende Verweise mithilfe von Links umgesetzt werden. Aber dies funktioniert nur im rein digitalen Paradigma. Bekanntlich sollten aber Informationen auch außerhalb des Rechners mitteilsam bleiben. Aber bis heute habe ich kein entsprechendes Zitationsystem umgesetzt gesehen. Weder iBooks noch der Kindle lassen einen Ansatz eines Zitationssystem erkennen, bei dem konkrete Textstellen herausgestellt werden können.

Alle kehren gezwungenermaßen aber gleichzeitig unsinnigerweise zurück zur Seite (iBooks) oder zur Position (kindle) zurück. Warum gezwungenermaße? Offenbar benötigt der Leser ein solches Referenzsystem. Und dies gilt aus obigen Gründe im besonderen Maße für die Wissenschaft. Warum unsinnig? Weil diese Zählsysteme – gerade bei iBooks – nicht zuverlässig sind. Ändere ich den Screen, die Schriftgröße oder das Layout im Allgemeinen, dann ist die zitierte Stelle an diesem Punkt des Dokumentes nicht mehr auffindbar. Ich kann in die Literaturangabe ja nicht wirklich noch Informationen zu den von mir verwendeten Darstellungsoptionen geben, oder?

Ohne ein plattformübergreifendes Zählsystem bleiben ebooks oder html-Artikel für die Wissenschaft vorerst nur schwer nutzbar. Was bietet sich also als Alternative an? Zeichen, Wörter, Absätze? Schließlich sind Zeichen, Wörter oder Absätze wesentlich nun einmal im Text vorhanden und offenbar adäquater als die durch das digitale Format verlorengegangene Seite. Aber  in Wirklichkeit sind Zeichen oder Wörter keine sinnvolle Größe. Sie spielen vor allem innerhalb des Editierungsprozesses eine große Rolle, aber für den akademischen und nicht-akademischen Endanwender scheinen sie mir sehr unpraktisch. Zu riesig können gerade bei umfangreichen Werken oder Texten die Zahlen werden. Wie findet man sie auf? Muss man abzählen? Gibt es ein passables Zählsystem? Absätze sind genauso wenig hinreichend adäquat. Zwar werden die Zahlen nicht allzu riesig, aber was macht man, wenn ein Text nicht in Absätzen strukturiert oder in Absätzen überstrukturiert ist? Hier fehlt eine sinnvolle Vergleichbarkeit zwischen Texten.

Die Seitenzahl war immer eine vom konkreten Textlayout unabhängige Größe, die ausreichend genau bzw. hinreichend grob war, um einen guten Kompromiss zwischen Auffindbarkeit von Textstellen und schneller, merkbarer Weitergabe von Zitationsstellen zu gewährleisten. Auch besaß die Seitenzahl immer die Eigenschaften einen Aussage über den Umfang des Textes zu machen.

Ich wiederhole mich: Solange es kein adäquates, plattformübergreifendes, formatunabhängiges Zählsystem gibt, dass als Basis eines Zitationssystems fungieren kann, scheinen mir die Rufe nach dem Tod der PDF und der Inthronierung von html-Artikeln und eBook-Formate als verfrüht. Da ist noch ein bisschen was zu tun.

  1. Ich habe dazu zahlreiche PDF-Reader-Tools für das iPad ausprobiert und mich konnte am meisten der GoodReader überzeugen. Auch wenn es momentan bei dieser App noch an einem Update für iOS7 mangelt. Die vielen Absürze nerven. Aber man ist ja leidensfähig. []
  2. der Vollständigkeit wegen: Ich verwende zur Katalogisierung meiner Bibliographie Citavi []

RaspberryPi-Bequemlichkeiten

Raspberry Pi -Logo

Es flog zunächst etwas unter meinem Radar. Immer wieder wurde darauf aufmerksam gemacht – dieses kleine Platinchen, das doch soviel kann – ein volles Media-Center, das per HDMI HD-Content wiedergeben und 5.1-Sound ausgeben kann, das mit Festplatten, Filmen, Mp3s etc. gefüttert werden kann und dabei nicht mal 50 Euro kostet. Als sich dann herausstellte, dass es möglich war, auch Apples Airplay zu nutzen bzw. das ganze dann noch gemütlich per iPhone, iPad oder Mac steuern zu können, hatten sich genügend potentielle Kaufargumente zusammengestaut, diese Gerät mit den omniösen Namen zu kaufen: Das Raspberry Pi.

Aber die Angst sitzt tief. Man dringt bei der Installation und Nutzung eines Pi’s – so glaubte ich – in technische Tiefen vor, die ohne Kenntnis von Kommandozeilen, Lötkolben und Tratra, kein gutes Ende nehmen kann. Aber weit gefehlt. Sowohl das Gerät selbst, als auch die benötigte Software sind auch für Anfänger nach ein bisschen Einarbeitungs- und Eindenkungszeit gut dokumentiert.

Mein geplanter Haupteinsatzzweck ist dabei – relativ simpel – die Verwendung als AppleTV-Ersatz. Der kleine Pi hängt bei mir sozusagen an der Stereoanlage und am Beamer und bei Bedarf wird mit Airfoil oder über  AirPlay Medien verschiedenster Art gestreamt. Musik stellt dabei fast überhaupt klein Problem dar, Videos funktionieren noch so mittelprächtig. Häufig bleibt der Stream dann hängen und der Player auf dem Sender-Gerät muss neugestartet werden. Es ist dabei egal, ob AirPlay direkt oder vermittelt über Airfoil verwendet wird.

Die Software für das Pi, um all diese Funktionen verwenden zu können, ist dabei raspbmc. Dabei handelt es sich letztlich nur um eine Linuxsoftware, die wiederum die freie MediaCenter-Software XBMC für das Pi aufbereitet. Dementsprechend kann man auf viele Funktionen mitsamt des kompletten Ökosystems von XBMC in Form iOS- und Androidanwendungen zurückgreifen.

Schön sind auch die zahlreichen Erweiterungen, mit denen man bequem auf die ganzen Media-APIs wie Youtube oder soundcloud zurückgreifen kann. Letztlich stimmen einfach Preis und Leistung. Mit ein bisschen rumprobieren hat man schnell die üblichen Hürden wie es bucht sich nicht ins WLAN ein oder das oder jenes wird nicht richtig abgespielt. Im Zweifelsfall hilft dann immer google und die zahlreichen Foren und Tutorials im Netz weiter. Wer also sein alte Stereoanlage gut mit dem neuen Schnick-Schnack kabellos verbinden will, hält hier seine Lösung in den Händen. Und wer Lust daran gefunden hat, kann mit so einem kleinen RaspberryPi noch viel viel mehr realisieren. So z.B. eine eigene Dropbox.

Ältere Beiträge

© 2018 urbandesire

Theme von Anders NorénHoch ↑