Content-space.de

The WikiBlog of Michael Hamann about changing technologies and more

User Tools

Site Tools


start

Home

Welcome on my WikiBlog! You can find a mixed collection of German and English content here. This website is always work in progress as there is a lot to do and so little time.

Willkommen auf meinem WikiBlog! Hier gibt es eine Mischung aus deutschen und englischen Inhalten. Meistens habe ich zu viele Ideen und zu wenig Zeit und so ist auch diese Website eine ständige Baustelle.

Tabitis erfolgreich bekämpfen

Das Urban Dictionary definiert Tabitis folgendermaßen:

the condition in firefox (the choice of any self-respecting internet user) where one finds themselves overwhelmed by the massive amount of tabs they have open.

Konkret bedeutet das - man hat dauerhaft oder immer wieder 20, 30, 60 oder gar 100 Tabs offen. Und warum ist das ein Problem? Nun, zum einen findet man sich in der Regel einfach nicht mehr zurecht bei den vielen Tabs, die Performance geht in den Keller und wirklich bringen tut das auch nichts. Mit mehr als ein paar Tabs (ich schätze ca. 10) Tabs lässt sich einfach nicht wirklich produktiv arbeiten.

Was kann man dagegen tun? Zunächst einmal: die Tabs einfach zumachen. Allerdings ist das nicht so einfach, schließlich hat man die Tabs ja aus irgendeinem Grund offen - man möchte sie schnell wiederfinden, möchte vielleicht den Inhalt noch lesen, … Die einfachsten Erweiterungen für Firefox (keine Angst, hier soll es nicht nur um Firefox gehen) schließen die Tabs einfach und legen ein Bild der Seite, Titel und URL ab, so dass man leicht wieder zurückkehren kann. Taboo ist so eine Erweiterung. Allerdings muss ich sagen mir reicht das nicht. Zum einen werde ich kaum irgendwann die Seiten nochmal anschauen noch da explizit nach ihnen suchen. Das Resultat: Bei mir haben sich jede Menge Seiten angesammelt in Taboo, die allesamt zwar irgendwie sinnvoll sind, bei denen aber komplett der Kontext fehlt.

Deshalb möchte ich hier einige Lösungen vorstellen, die mir täglich helfen, die Flut an Tabs zu bewältigen und auf einige wesentliche Seiten zu reduzieren.

Lesezeichen

Social Bookmarks mit Social Tagging, aber auch die ganz normalen Lesezeichen des eingesetzten Browsers können gerade für die Langzeitspeicherung von gewissen Seiten eine große Hilfe sein. Wenn ich eine Seite geöffnet habe, die ich irgendwann mal wieder finden will, dann speichere ich sie. Häufig gebrauchte Seiten landen dabei in der Lesezeichenleiste im Browser. Speichern, schließen, fertig.

Read Later

Oft bekommt man irgendwo einen Link geschickt oder findet durch Zufall einen Link, der auf eine Seite mit viel Text führt, die man zwar prinzipiell lesen möchte, aber nicht gerade jetzt. Offen lassen und auf einen späteren Moment hoffen war anfangs meine Strategie - nunja, viele offene Tabs waren die Folge. Für viele Browser und Smartphones gibt es Read It Later - Seiten zum später Lesen speichern. Dabei wird die Seite auf Wunsch sogar komplett heruntergeladen und - ebenfalls nur auf Wunsch - auch auf den wesentlichen Inhalt reduziert. Ideal um z.B. Unterwegs im Zug zu lesen. Wirklich in den Griff bekommen habe ich allerdings meine immer länger werdende Liste der zu lesenden Artikel erst mit Instapaper und der Möglichkeit, die Seiten als eBook zu exportieren. So kann ich die Seiten wo und wann ich will mit meinem eBook-Reader lesen. Angenehm entspannt im Bett oder auf der Couch interessante Webseiten lesen - genial. Und die Liste der zu lesenden Seiten war jetzt schon mehrfach leer. Wenn man weiß, dass man die Seiten auch wirklich lesen wird, geht das Schließen deutlich leichter von der Hand. ;)

ToDo-Listen

Viele Seiten die ich so offen habe gehören zu irgendetwas was ich erledigen will oder muss. Z.B. Seiten, die ich hier verlinken möchte, ein Produkt, das ich kaufen möchte, … Irgendwie findet man am Computer schnell etwas anderes, das man dringend tun möchte oder muss und vergisst dabei ganz die vielen geöffneten Seiten. Oder es ist ein Video, das man jetzt gerade nicht ganz anschauen möchte.

Für all dies und viel mehr habe ich mir angewöhnt, die Seiten, die zu einer bestimmten Aufgabe zu gehören, wenn ich an dieser nicht mehr weiterarbeiten möchte, einfach bei der jeweiligen Aufgabe zu notieren bzw. eine neue Aufgabe z.B. für das Fertigschauen des Videos anzulegen. So stelle ich sicher, dass ich die Seiten im richtigen Kontext und auch wirklich wieder finde.

Sollte die ganze Aufgabe aus Recherche bestehen, so beginne ich bald, Lesezeichen zu speichern, die ich so einsortiere/tagge, dass ich sie wiederfinde. Alternativ kann man sie natürlich auch direkt in ein entsprechendes Dokument schreiben. ToDo-Listen eigenen sich für so etwas meist nur eingeschränkt, aber ein Verweis auf die entsprechende Linksammlung lässt sich meist gut unterbringen.

Handeln

Wichtig ist, dass man bei einer Seite, die nicht zur aktuell bearbeiteten Aufgabe gehört, schnell und sofort eine Entscheidung trifft. Entweder man schaut sie sich sofort an, oder man speichert sie sich für später zum Lesen oder legt sie direkt in das Archiv der Bookmarksammlung.

Eines nach dem Anderen

Sehr sinnvoll ist, immer nur eine Aufgabe zu bearbeiten und am Ende dieser Aufgabe bzw. wenn man zu einer anderen Aufgabe wechselt diesen Wechsel bewusst vollziehen und hierbei auch alle dazugehörigen Tabs schließen.

Manchmal funktioniert das mit nur einer Aufgabe so nicht ganz, aber man sollte doch zumindest den Überblick über alle aktuell bearbeiteten Dinge behalten (z.B. eine Sache, die im Hintergrund abläuft wie viele Fotos hochladen und eine Sache, mit der man sich aktiv beschäftigt).

Das Produktivitätssystem “Zen To Done” beschreibt das im Teil Handeln ganz gut. Mehr zum Bearbeiten nur einer Aufgabe befindet sich im (englischen) Artikel How NOT to Multitask – Work Simpler and Saner - generell ein sehr empfehlenswertes Blog wenn man sich für Vereinfachung interessiert.

Immer ein waches Auge für die Tabs haben, erkennen, was dort noch geöffnet ist und was man davon wirklich aktuell benötigt oder nicht geschlossen werden soll, weil es z.B. die Todo-Liste ist, hilft, geöffnete Tabs schnell wieder zu schließen und so die Übersicht zu bewahren. Ich finde, ein aufgeräumter Browser trägt entscheidend zu mehr Produktivität bei.

Creating ePub files from webpages

As my newest gadget (well, it's already more than one and a half months old) is an eBook reader device my interest for ePub files has grown as ePub is basically the format that works best for my device and probably generally small eInk devices.

Basically, an ePub file is a xhtml file with some additional information (e.g. a table of contents) zipped together into a handy file. So saving a webpage into an ePub document seems to be quite easy. Nevertheless there are some things the tool has to pay attention too as e.g. the xhtml in a epub file has to be valid xhtml 1.1. For further details on the file format I suggest reading this guide on ePub file creation.

Of course one could do that manually for every single page one wants to read, but I thought there has to be something more handy. Calibre is a great software for creating content for eBook reader devices and it can even process RSS feeds (though skimming through content as I do during reading my feeds is not exactly what you can do best with an eBook reader device). Nevertheless I wanted something more integrated into my favorite browser, Firefox. Surprisingly I couldn't find a single addon for Firefox that fits this purpose.

Finally I managed finding three web services that can create ePub files from webpages:

Web2FB2

The most simple one is Web2FB2, although it's name may suggest something different that service also creates ePub files. I said it's simple because it really just takes the webpage and creates an ePub file. It doesn't try to detect the main text or use RSS feeds or remove the navigation, but at least it includes all images. It seems to me that it ignores printing stylesheets, too. So it depends on the webpage and which parts of it you are interested in how well the result is usable.

zinepal.com

The probably most sophisticated service I've found is zinepal.com - it's basically intended for creating newspapers from webpages, feeds or Google news or blog search results. You can add up to 5 (25 in the pro version) webpages to a so-called “Zine” for which you can then choose several options and get it as PDF or ePub. When you are pro-user (which are you automatically for the first month of usage) you can even add your own logo or introductory section. You can also select which fonts shall be used and as pro user you can add advertisement (which of course is more intended for republishing the result than for personal use ;)). Besides that it creates quite useful ePubs (and PDFs) from the specified pages and feeds, it removes almost everything but the actual content, the only negative point is it doesn't add a table of contents for the included pages.

Instapaper

Instapaper is “A simple tool to save web pages for reading later.”. Nevertheless it looks really interesting to me as it is indeed quite simple, you even don't need a password for your account when you don't want one (but it still supports multiple folders, starring pages, iPhone apps…). With a simple bookmarklet you can save pages for later reading. And the best is: you can create an ePub of all your unread pages. As zinepal.com Instapaper most of the time removes everything but the essential text (and unfortunately like zinepal.com also most/all? images…), but as a big plus it adds a table of contents so you can quickly jump between the included pages.

Thus Instapaper looks exactly like what I've been looking for - a tool to make it easy to read all that stuff I find online but want to read in a quiet (or noisy) moment on my sofa (or on the train). I can collect the stuff I want to include and then when I want to get something to read I simply click the epub link and save the ePub file on my reader (switching between files is one of the slower operations, thus having it all in one file is also a big plus). And for the Amazon Kindle there would even be an auto-delivery option. The only thing I'm missing a bit are the images in the webpages, I hope that the algorithm for extracting the text will be improved, but of course I understand that such an algorithm is hard to create and always includes a lot of guessing.

If you should have discovered other ways for getting the web (or at least some parts of it ;))into an ePub file, please let me know!

GPN8

Gestern ging die 8. Gulaschprogrammiernacht zu Ende, das Hacker-Event des Ablegers des Chaos Computer Clubs in Karlsruhe mit dem Namen Entropia. Zahlreiche Vorträge, ein Hackerspace sowie ein toller VisualCube bot die GPN. Eine Einführung in den Visualcube war bei mir genauso dabei wie ein Einblick in Lockpicking und schließlich am frühen Samstag Abend ein Vortrag über Haskell, der mich endgültig motiviert hat, mich mit Haskell und funktionaler Programmierung zu beschäftigen - fragt sich nur noch, wann ich die Zeit dafür finde. Den Abschluss für mich bildete ein Vortrag über Webdesign für Entwickler, der mir noch einmal einige Anregungen für Webdesign gab und mich daran erinnerte, dass ich dieser Seite hier eigentlich mal ein neues Design verpassen wollte.

Neben diesen Vorträgen blieb ziemlich viel Zeit übrig, die ich damit verbrachte, ein dreidimensionales Pong-Spiel für mehrere Spieler (momentan sind 4 fest einprogrammiert, das sind aber nur wenige Zeilen Code, die die Anzahl der Spieler festlegen) für den VisualCube zu programmieren. Der Code ist in einem Git-Repository hier zu finden, die Dokumentation ist allerdings noch etwas mangelhaft bis nichtexistent, zum Ausführen wird Processing mit der VisualCube library benötigt (alles auf der Website des VisualCube zu finden).

Insgesamt war es ein gelungenes Wochenende das mich motiviert hat, endlich mal das eine oder andere Projekt anzupacken und bei dem ich auch einige ehemalige oder aktuelle Schüler meiner alten Schule wiedergetroffen habe.

FuCamp: Blogs vs. Qualitätsjournalismus

Dies ist ein Mitschrieb der kleinen Diskussionssession zum Thema Blogs vs. Qualitätsjournalismus.

In den USA gibt es bereits eine erste (Groß)Stadt ohne Tageszeitung - da die junge Generation die Infos aus dem Internet holt. Primäre Aufgabe einer Tageszeitung ist es allerdings nicht, schnell zu sein, sondern gut zu sein. Tageszeitungen liefern auch Hintergrundinformatione und hat gut ausgebildetete Journalisten, die beide Seiten hören. Twitterer oder Blogger berichten immer bzw. meist einseitig.

Falsche Informationen online werden von den traditionellen Medien übernommen.

Tageszeitungen bieten Dinge, die das Internet nicht bieten kann. Journalisten recherchieren auch länger für ein Thema, Blogger recherchieren selten so gründlich wie Journalisten, z.B. auch in den entsprechenden Ländern. Blogs sind quasi Stammtische im Internet, aber die Printpublikationen springen darauf an.

In Deutschland ist auch eine Konsequenz, dass verschiedene Zeitschriften zu großen Verlagen zusammengeschlossen werden.

Problem ist ebenfalls, dass es den Leuten egal ist, was momentan mit den traditionellen Medien passiert.

Blogs bieten auch Vorteile, sind unabhängig im Gegensatz zu traditionellen Medien, die z.B. von Werbeeinnahmen abhängen und daher schlecht den Werbepartner kritisieren können. Weblogs bieten eine große Meinungsvielfalt, eventuell auch ohne finanzielles Interesse bessere Information?

Problem: Woher kommen die unabhängigen Meinungen? Wohl doch auch von den traditionellen Medien.

Es wird im Bereich des Qualitätsjournalismus immer weniger Geld ausgegeben für Journalisten. Das beschränkt durchaus die Qualität der Inhalte. Die Qualität sinkt ganz von selber durch Anzeigeneinbrüche, Preissteigerung, …

Blogs referrieren gerne auf Medien, Blogs sorgen damit dafür, dass verschiedene Artikel der Presse gelesen werden, beleuchten sie auf andere Weise. Teilweise kommen auch Themen aus den Blogs in die Traditionellen Medien. Blogs zeigen auch, dass man mit wenig Geld einiges erreichen kann.

Bei Blogs werden gute Blogs herausgefiltert.

Bei allen Informationsquellen sind die meisten Informationen irrelevant für die einzelne Person. Blogs erlauben es einem, eine persönliche Zusammenstellung von Informationen zu bekommen. Das Social Network kann als Filter für Informationen dienen, d.h. man liest das, was einem die virtuellen “Freunde” empfehlen.

Blogs haben ihre Daseinsberechtigung im Long Tail, das scheint für uns klar zu sein. Außerdem legen sie teilweise die Themen für die Printmedien fest. In Printmedien sind Information und Meinung (idealerweise) getrennt (in den USA z.B. anders), in Blogs nicht.

Via Twitter/Blogs werden Informationen sehr schnell veröffentlicht, die Frage ist aber, ob die Informationen auch stimmen. Massenmedien schauen auch in die Tiefe, Blogs vermutlich eher weniger. Reine Nachrichten funktionieren eventuell auch ohne Qualitätsjournalismus. Problem ist auch, dass viele auch schnelle Informationen für die richtige Information halten.

Brauchen wir zwar keine traditionellen Medien mehr, aber trotzdem noch Journalisten?

Journalisten machen oft Fehler, wie man merken kann, wenn es um einen selbst schreiben - wie viele Fehler machen sie insgesamt? Bei Bloggern kann man hier einfacher korrigieren. Blogger liefern bei Artikeln einen anderen, persönlicheren Hintergrund in Artikeln.

Mit einem mehr oder weniger offenen Ende schloss diese sehr interessante und spannende Diskussion.

FuCamp: Amazon Web Services

Session von und mit Sven Jansen (@pixeljunkie auf Twitter). Schwerpunkt auf Amazon Elastic Compute Cloud (Amazon EC2) - virtuelle Rechner anmieten, Amazon Simple Storage Service (Amazon S3) - Datenspeicher, u.a. Twitter basiert darauf. Außerdem gibt es SimpleDB - eine einfache Datenbank mit Key-Value-Paaren, aber sehr mächtig. Amazon CloudFront - Frontend für S3 - bringt Daten näher an den Benutzer, legt den S3 Space in die Region, in der die Daten angefragt werden, S3 Spaces werden damit weltweit verteilt. Amazon Simple Queue Service (Amazon SQS), Event-System mit Queues, Elastic MapReduce zum Bearbeiten extrem großer Datenmengen.

Amazon EC2

Basiert auf XEN Virtualisierung, auch CPU-Last und Speicher werden auf mehrere Systeme verteilt, wie genau ist Geheimnis von Amazon. Es gibt verschiedene Linux-Distributionen oder auch Windows. Es gibt verschiedene Ausbaustufen, die auf reale Hardwarekomponenten umgerechnet sind. Die virtuellen Maschinen sind flüchtig, Änderungen an den Daten werden nicht gespeichert, man bootet von einem Image. Der vorhandene Speicherplatz ist für temporäre Daten gedacht, eigentliche Speicherung auf S3. Die Abrechnung erfolgt dabei stundenweise, man kann flexibel wechseln. Innerhalb von 2 Jahren gab es keinen Ausfall, die Ausfallsicherheit ist also recht hoch. Man sollte die Dienste so bauen, dass andere Server schnell dafür einspringen können.

Es gibt als Ergänzung auch Elastic Block Storage dazu für nicht-flüchtige Speicherung von Daten. Die Server stehen in den USA und Irland. Es gibt feste IPs, die nicht an einen einzigen Server gebunden sind. Cloudwatch ist ein Dienst, um die verschiedenen Daten zu überwachen, bietet API an.

Autoscaling - automatisch Instanzen starten/beenden wenn sich der Bedarf ändert. Seit kurzem auch Elastic Load Balancing, Routing auf mehrere Instanzen. Snapshots der Instanzen können auf S3 gespeichert weren, z.B. um Updates am Betriebssystem selbst zu machen, geht sehr schnell. Es gibt einen Marketplace mit kostenlosen oder auch kostenpflichtigen fertigen Images.

Die API ist programmiersprachenunabhängig.

Amazon S3

“Eimer” benennen, Daten reinladen (REST/SOAP API). Verfügbarkeit durch HTTP Download, aber auch BitTorrent, API. Unbegrenzter Speicherplatz, aber max. Dateigröße 5 GB. Standorte USA oder Irland. Es gibt auch Rechtemanagement, Zugriff kann beschränkt werden. Das ganze ist auf mehrere Server verteilt und kann mit Cloudfront auf eigene Domain und Edge Server geleitetet werden. Es gibt als Minimum 100 MBit Anbindung, Traffic kostet.

Die Bezahlung erfolgt in beiden Fällen ausschließlich über Kreditkarte.

FuCamp: Laptops in Vorlesungen - Fluch oder Segen?

In Furtwangen wurde Kritik an den Notebooks in Vorlesungen von Seiten der Professoren geäußert. Anwesend auch ein Professor der Hochschule.

Folgend der Mitschrieb einiger Aussagen/Lösungsideen, …

Notebooks können gut genutzt werden für Protokolle, Recherche, … Studierende finden es unverschämt, dass ihnen während der Vorlesung der Kontakt nach außen verboten wird vs. der Professor, der versucht, etwas mitzuteilen und die Studierenden lenken sich ab.

Heute existiert eine andere Kommunikationskultur als früher - wie unterscheiden sie sich? Müsste man Laptop-Nutzung verbieten oder wie bekommt man sie sonst in den Griff? In Dänemark wurden Laptops teilweise sehr integriert, dass Ablenkungen von Studierendenseite selbst als störend empfunden wurde. Zum Beispiel durch Skripte ergänzen oder Studierende müssen während der Vorlesung ein Programm erstellen.

Digitale Mitschriebe bieten große Vorteile (können z.B. an nicht anwesende Studierende weitergegeben werden). Langweilige/schlechte Vorlesung - gehen vs. ablenken und trotzdem noch ein wenig aufpassen.

In manchen Vorlesungen ist es offensichtlich, dass Laptops nicht zu studienzwecken einzusetzen. Teilweise gibt es auch Pflichtveranstaltungen, wo man hingehen muss. Außerdem sind Studierende teilweise gestresst/haben nicht so viel Zeit und erledigen andere kleine Aufgaben wie E-Mails schreiben.

Professoren empfinden es als sehr wichtig, dass sie die ungeteilte Aufmerksamkeit bekommen und ihre Selektionsfunktion ausüben können, da sie eine Fachsicht haben und die Studierenden selbst nicht unbedingt beurteilen können, ob die Inhalte interessant sind.

Problem bei Pflichtvorlesungen, dass Studierende da sind, die ohne Anwesenheitspflicht nicht da wären.

Es gibt Vorlesungen, in denen Laptops nicht sinnvoll und es gibt andere, in denen man mit dem Laptop z.B. Aufgaben zum aktuell behandelten Stoff lösen kann.

Laptops in Vorlesungen lenken auch andere Studierende, insbesondere die, die dahinter sitzen, teilweise auch akustische Störung.

In manchen Vorlesungen sind Laptops zur Recherche sehr sinnvoll.

Sensibilisierung für das Thema wird eher als Lösung gesehen als ein generelles Verbot, da damit auch sinnvolle Einsatzgebiete verboten werden. Es ist auch eine Frage der Grundeinstellung. Idee einer Selbstverpflichtung - aber es gibt evtl. immer schwarze Schafe. Soziale Bindung/Kontrolle ist in Kleingruppen möglich.

Durch handschriftliche Mitschriebe wird man gezwungen, die Vorlesung wirklich nachzuarbeiten. Am Computer dagegen kann man dagegen übersichtlicher Mitschreiben und auch die mitgeschriebenen Inhalte durchsuchen.

Problem ist, dass die Diskussion eigentlich alle erreichen müsste, und nicht nur diejenigen, die sowieso für das Thema sensibilisiert sind.

Lösungsvorschläge:

  • Wir hoffen, dass sich die Leute ändern
  • “Holzhammer-Methode” - Professoren sagen es am Anfang der Vorlesung
  • Graswurzelbewegung - aus der Menge heraus wird Druck aufgebaut

Bericht auch, dass Ermahnen anderer nicht unbedingt hilft.

Eventuell sollte es auch einen Grundsatz/ein Leitbild geben. Aufruf an die Studierenden, hierfür Vorschläge einzureichen.

FuCamp: Blinde am PC

Session mit Markus Heurung, @muhh, markusheurung.de, Lehrer am Berufsförderungswerk Würzberg (bieten Umschulungen an), bildet in IT-Berufen auf, in diesem Fall für blinde und sehbehinderte Menschen zur Wiedereingliederung. Blindenschrift lernen, leben als Blinder.

Hilfsmittel Nr. 1 sind Screenreader, der den Bildschirminhalt ausliest und für Blinde zugänglich macht. Die Darstellung kann über eine Braille-Zeile oder Sprachausgabe erfolgen. Der Screenreader bekommt seine Informationen von einfachen Programmierschnittstellen bis hin zur Grafikkarte, wo die Cursorposition erfragt wird. Einer der verbreitetsten ist Jaws, auch verbreitet Virgo/Cobra, Window Eyes und die OpenSource Software NVDA. Von allen gibt es Demo-Versionen, die meist auf 40 Minuten pro Boot… Ubuntu kann man auch blind installieren, bei Windows geht das nicht, bei Mac OS ist auch einiges vorhanden.

In den USA benutzen die meisten einen Screenreader mit Sprachausgabe aus Kostengründen, in Deutschland sind eher die Braillezeilen gefragt. Viele arbeiten auch kombiniert mit beidem.

Screenreader sind extrem konfigurierbar, Sprachgeschwindigkeit einstellbar, “Bubbles” aus der Statuszeile werden vorgelesen. Es gibt unterschiedliche Stimmen, auch unterschiedliche Stimmen für verschiedene Funktionen.

Das Wichtigste für Blinde bei Programmen und auch Websites sind Shortcuts, Grafiksymbole beschriften (z.B. alt-Attribute bei Bildern auf Websites). Es muss des Weiteren alles mit der Tastatur erreichbar sein. Bei Websites können Screenreader z.B. auch Übersichten mit allen Überschriften oder Links anzeigen.

FuCamp: La Blogosphère en France

Session mit Dr. Heiner Wittmann von der Ernst Klett AG, ist dort verantwortlich für Web 2.0 bei Klett.

In Frankreich vs. Deutschland 9 vs. 1 Millionen Blogs, in Frankreich viel mehr Blogs, da aktivere Blog-Platformen. Politiker bloggen teilweise selbst, teilweise lassen sie auch bloggen (auch gemischt in einem Blog). Mind. 80 verschiedene franz. Abgeordnete haben Blogs. In Deutschland gibt es das weniger, da ca. die Hälfte der Abgeordneten mit Listen gewählt werden, französische Politiker sind eher gezwungen, mit ihren Wählern im Kontakt zu bleiben. In Frankreich können einzelne Politiker direkt abgewählt werden, in Deutschland quasi nicht möglich wegen den Listen.

In Frankreich wird oft über die Arbeit an Berichte und Projekten gebloggt, eine Offenheit, die wir in Deutschland oft noch nicht haben.

Bei französischen Medien gibt es teilweise Blogs der Zuschauer, bei Le Monde sind teilweise bekannte Blogs in Frankreich gehostet.

Es gibt Theorien, dass beim Referendum zur EU-Verfassung die Blogs auch mit entschieden haben.

Die Blogs vernetzen sich oft mit anderen lokalen Blogs.

Mit Sicherheit stecken gerade bei Politikern wie Sarkozy PR-Berater dahinter, die normalen Abgeordneten machen das aber wohl doch selbst.

Mehr Infos, Links etc. auf http://romanistik.info/blogs.html

FuCamp: Freie Suche

Präsentiert von zwei Informatikstudenten (Uni Karlsruhe):

  • Florian Richter
  • Michael Hamann

Motivation

  • Suche ist eine der wichtigsten Dinge im Web überhaupt
  • Die Websuche ist momentan in der Hand weniger großes Konzerne
  • Zensur, Kontrolle - wie vertrauenswürdig sind derartig riesige Privatunternehmern

YaCy

  • P2P Suchmaschine - verteilte Indexierung des Webs
  • 2003 Gegründet
  • momentan ca. 7 aktive Entwickler
  • momentan ca. 70 Aktive Teilnehmer im P2P Netz

P2P

Zensur

  • Jeder Peer kann Blacklists anlegen, diese können ausgetauscht werden
  • Gedacht, um z.B. Werbung, Linkfarmen, etc. auszuschließen, teilweise auch eBay, Amazon etc.
  • Problem: Bei Verteilung wird der Index teilweise auch auf den anderen Peers nochmal nach dortigen Blacklists zensiert
  • Zensur vs. Spam/unerwünschte Inhalte?

Weitere Einsatzzwecke

  • Firmen Intranets
  • Themensuchmaschinen
  • ScienceNet am KIT

Ersatz für Google?

  • Bereits brauchbare Ergebnisse
  • Index umfasst natürlich nicht alles.
  • Lösung: Metasuchmaschine - Paxle?

Auch online:

http://www.content-space.de/go/freie_suche

Mehr Infos zu YaCy und Paxle auf yacy.net bzw. paxle.net.

FuCamp: Distributed Social Networks

Session mit Mario Volke, studiert Informatik und hat sich von der semantischen Schiene her mit Distributed Social Networks beschäftigt.

Es geht darum, keine geschlossene Plattformen zu haben ohne Kontrolle über die eigenen Daten. Die Idee ist, plattformübergreifend Freunde zu haben und vielleicht sogar die Daten selbst zu speichern. Hierzu sind offene Schnittstellen nötig.

Was gibt es?

Google OpenSocial: Wollen bestehende Netzwerke öffnen mit Hilfe von APIs für Userdaten, Freunde, Aktivitäten. Alles ist sehr unspezifisch. Nicht möglich sind aber plattformübergreifende Freundschaften, die Daten liegen nach wie vor bei den geschlossenen Plattformen, keine wirkliche Dezentralisierung.

NoseRub ist ein OpenSource-Projekt, eine Plattform, die man selbst installieren kann. NoseRub spezifiziert ein Protokoll, mit offenen Technologien mit OpenID, RSS, FOAF. Man kann Streams aggregieren, Livestreaming (wie z.B. FriendFeed). Man hat eine URL, die die eigene ID darstellt. Die Profile werden über FOAF synchronisiert.

HelloWorld - www.helloworld-network.org, aus Diplomarbeit entstanden, noch nicht live, SourCode in ein paar Monaten… Authentifizierung mit ähnlichem Protokoll wie OpenID mit Public Key Verfahren. Dezentralität: Profile, Unterprofile, freie Wahl des Speicherortes dieser Profile. Spezielles Protokoll zur Verbindung der verschiedenen HelloWorld-Server existiert. Sicherheit mit Hilfe von Verschlüsselung und Signaturen. Die Kommunikation soll über E-Mail oder Peer-to-peer (z.B. Freenet), ist aber noch nicht implementiert. Es gibt von der RE:Publica eine Aufzeichnung der dortigen Live-Demo.

Ein Projekt von Mario selbst ist origo. Eine Mischung aus Serverapplikation mit PHP mit einem Datenspeicher und einem Flex Client, über das man das Profil (FOAF) editieren kann und das Netzwerk erkunden kann. Der Server kümmert sich auch um die Publizierung der Profile. Es gibt URLs für die Profile, können auch Weiterleitungen sein. Problem ist, dass FOAF noch etwas beschränkt ist. Der Client enthält einen Browser für das soziale Netzwerk, auch nach spezifischen Beziehungen. Beziehungen wie child of/parent of werden auch erkannt. Auf http://code.google.com/p/origo/ gibt es den Code und Links zu demos. Auch externe Profile können mit angegeben werden. Alles ist noch experimentell, auch die Performance ist noch problematisch, da die Daten wirklich dezentral auf anderen Servern gespeichert sind und erst angefragt werden müssen. Es werden ausschließlich standardisierte Protokolle verwendet, Dinge wie andere Personen über neue Freundschaften informieren funktionieren noch nicht.

Was wollen wir?

Kontrolle über die eigenen, persönlichen Daten.

Frage: Wie werden die Profildaten wieder zurück in anderen Profile synchronisiert. Plattformen sollten die Daten nur aus FOAF-Profilen nur cachen, die anderen müssen diese Daten ab und zu synchronisieren. Die eigenen Profile enthalten die Daten, die einzelnen Plattformen sind nur Clients. Problem, dass die Plattformen die Caches richtig verwalten müssen/garantieren müssen, dass die Daten auch wirklich wieder gelöscht werden, wenn der Benutzer es will. Problem, dass einmal veröffentlichte Daten schlecht zurückgenommen werden kann.

Frage auch nach einem Geschäftsmodell, einem Markt, … Das Daten/Profil erstellen fällt als Geschäftsmodell eventuell weg oder wird es hier wieder zentrale Anbieter geben? Vergleich mit E-Mails, wo auch Geld mit verdient wird. Die Frage ist, ob XMPP genutzt werden könnte, für die Kommunikation. Problem auch der dezentralen Adressierung, ob E-Mail-Adressformat oder URI, …

Das Problem ist auch, dass der Ottonormaluser nicht das Problem sieht/den Mehrwert erkennt. Auch die Akzeptanz von Kryptographie ist nicht unbedingt gegeben (siehe E-Mail).

Interessante Diskussion zum Thema Zentrale Identität vs. verteilte Daten usw.. Problem dass man die eigenen Daten an eine private Firma überträgt.

Es ist klar, dass die zentralen Plattformen, die die Massen haben, kaum Interesse haben an dezentralen Netzwerken, aber sie könnten dazu gezwungen werden (siehe AOL…). Selbes Problem existiert auch bei Instant Messaging, Google stellt sich hier hinter Jabber, aber Jabber setzt sich bis jetzt immer noch nicht durch…

start.txt · Last modified: 2013/03/09 01:37 by michitux