Freitag, 29. April 2005
Cult7: Internetspuren
So, kurz vor Feierabend dann noch schnell die Cult7-Fragen beantworten:
- Wo versorgst Du Dich mit dem täglichen Lacher?
Ich glaube da gibt's garnichts. Ich finde, man sollte Witze nicht inflationär einnehmen. Und bisher habe ich keine Comics o.ä. gefunden, die ich wirklich lustig finde. Fand ich schon damals als Schulkind nicht toll den Baby Blues in der Zeitung zu lesen.
- … und wo, mit der täglichen Portion Nachrichten?
Ich hab da so ein kleines tolles Teil was sich RSS Bandit nennt. Da sind gut 50+ Seiten mit News dabei, und die meisten davon überfliege ich zumindest.
Ansonsten mag ich SpOn zum Beispiel garnicht haben. Zuviel Text, und das wichtige kriegt man schon irgendwie anders mit. Ausserdem interessieren mich eher IT-Sachen, und da ist Heise.de mein täglicher Favorit. Ab und an guck ich dann sogar mal TV-Nachrichten, vornehmlich irgendein Nachtjournal. Am liebsten auf RTL, da ist immer auch was zum Boulevard-Ablachen dabei.
- Jugendsünden hervor holen: Welche Seite war Deine erste selbstgemachte Internet-Seite?
Das war natürlich meine erste private Homepage. Die schlummert gottseidank in den Untiefen meiner Festplatte herum und muss hier wirklich nicht ans Licht der Öffentlichkeit gezerrt werden. Mein Gott, ich war jung und brauchte den Code!
- Wer hat Dich zum ersten Mal ins Internet gebracht?
Ins Internet hab ich mich ganz allein gebracht!
Beim MausNet hat mir Andy einen ordentlichen Stubbser gegeben, das war toll.
- Welche Community besuchst Du täglich?
Das Serendipity-Forum. Ansonsten hab ich für solchen Schickschnack keine Zeit.
- Auf welche Website kannst Du nicht mehr verzichten?
Eigentlich auf gut ein viertel aller meiner abonnierten Blogs. Und natürlich nicht mehr auf bahn.de, amazon.de und imdb.com.
- Und welche Website willst Du Deinen Besuchern sonst noch empfehlen?
Meine Blogroll
Donnerstag, 28. April 2005
Mit Firefox CSS-Dateien röntgen
Vor kurzem noch darüber geklagt, bin ich jetzt schon einen Schritt weiteR:
Aardvark ist ein nettes "proof-of-concept" Plugin, was dynamisch CSS-Elemente einer Seite highlighted und Informationen darüber darstellt.
Das ganze funktioniert schon relativ gut, und die "Coming Features"-Liste klingt auch vielversprechend: edit styles and content of the elements.
Passend zu der Extension gibt es auch ein Blog, was ich jetzt direkt mal abzapfen werde.
Ich wusste doch, dass ich mir kein MacOS kaufen muss; "FirefoxOS get's the job done".
(via DrWeb.de)
Aardvark ist ein nettes "proof-of-concept" Plugin, was dynamisch CSS-Elemente einer Seite highlighted und Informationen darüber darstellt.
Das ganze funktioniert schon relativ gut, und die "Coming Features"-Liste klingt auch vielversprechend: edit styles and content of the elements.
Passend zu der Extension gibt es auch ein Blog, was ich jetzt direkt mal abzapfen werde.
Ich wusste doch, dass ich mir kein MacOS kaufen muss; "FirefoxOS get's the job done".
(via DrWeb.de)
Dienstag, 26. April 2005
Bauarbeiten!
Wie bereits angekündigt ist jetzt hier ein experimentelles Plugin zu Gange.
Das ganze erzeugt vollständige Caches der Seiten, die maximale 1 Stunde "haltbar" sind. Vorteil ist, dass alle Content-Seiten für mehrere Zugriffe hintereinander stark optimiert sind.
Nachteil ist, dass Dynamik verloren geht: Die Clickanzahl und Karma-Votes innerhalb der Einträge werden nicht mehr den aktuellen Stand wiedergeben. Das Kommentarformular zur Eingabe eurer Daten wird jetzt per JavaScript statt per serverseitigem PHP vorausgefüllt (anhand eurer Cookie-Daten, falls gesetzt). Und dann eventuell noch Sachen, an die ich nicht gedacht habe.
Ein noch größerer Teil bei der Ladezeitverzögerung machen die GoogleAds aus. Die fliegen hier aber eh bald raus, sobald ich meine erste Auszahlung bekommen habe. Seitdem die Ads laufen (ca. ein Jahr) habe ich knapp 100 Dollar verdient, das sind also etwas weniger als 7 Euro monatlich. Und dafür, dass mich das Seitenaufbau-Geflacker so nervt und die Ads so wenig kontextsensitiv und sinnvoll sind, lohnt sich das absolut GAR nicht.
Aufgrund des Timeouts nach einer Stunde sollte davon eigentlich nicht viel bemerkbar sein. Ich würde mich freuen, wenn ihr mir eure Eindrücke mitteilt: Läuft es schneller/besser/langsamer, fallen euch spezielle "Bugs" auf?
Das ganze erzeugt vollständige Caches der Seiten, die maximale 1 Stunde "haltbar" sind. Vorteil ist, dass alle Content-Seiten für mehrere Zugriffe hintereinander stark optimiert sind.
Nachteil ist, dass Dynamik verloren geht: Die Clickanzahl und Karma-Votes innerhalb der Einträge werden nicht mehr den aktuellen Stand wiedergeben. Das Kommentarformular zur Eingabe eurer Daten wird jetzt per JavaScript statt per serverseitigem PHP vorausgefüllt (anhand eurer Cookie-Daten, falls gesetzt). Und dann eventuell noch Sachen, an die ich nicht gedacht habe.
Ein noch größerer Teil bei der Ladezeitverzögerung machen die GoogleAds aus. Die fliegen hier aber eh bald raus, sobald ich meine erste Auszahlung bekommen habe. Seitdem die Ads laufen (ca. ein Jahr) habe ich knapp 100 Dollar verdient, das sind also etwas weniger als 7 Euro monatlich. Und dafür, dass mich das Seitenaufbau-Geflacker so nervt und die Ads so wenig kontextsensitiv und sinnvoll sind, lohnt sich das absolut GAR nicht.
Aufgrund des Timeouts nach einer Stunde sollte davon eigentlich nicht viel bemerkbar sein. Ich würde mich freuen, wenn ihr mir eure Eindrücke mitteilt: Läuft es schneller/besser/langsamer, fallen euch spezielle "Bugs" auf?
Montag, 25. April 2005
Wenn einer eine Reise tut - oder: Dankeschön!
Es gibt zwei Gründe, warum sich eine Heimfahrt von Köln nach Remagen ab und zu lohnt.
Zum einen, weil man sein Eltern und Haustiere nochmal sehen kann, und zum anderen weil ich dann dort noch "Altbestandspost" abholen kann. Unter anderem lasse ich meine Amazon-Sachen meistens noch nach Remagen schicken, da ist die Post-Diebstahlquote einfach geringer als in Köln.
So begab es sich auch dieses Wochenende, dass ich etwas angesammelte Amazon-Post vom März bis April abgeholt habe, und nicht schlecht staunte:
Da waren doch ganze 5 stolzen Amazon-Wunschlisten-Pakete dabei:
Das hat mich erstmal umgehauen. Ein großes, kollektives (aber trotzdem individuelles) Dankeschön an euch alle lieben Serendipity-Nutzer, die mir mit ihren kleinen und großen Geschenken und vor allem Feedback so viel Freude machen. Da werde ich ganz rot.
Zum einen, weil man sein Eltern und Haustiere nochmal sehen kann, und zum anderen weil ich dann dort noch "Altbestandspost" abholen kann. Unter anderem lasse ich meine Amazon-Sachen meistens noch nach Remagen schicken, da ist die Post-Diebstahlquote einfach geringer als in Köln.
So begab es sich auch dieses Wochenende, dass ich etwas angesammelte Amazon-Post vom März bis April abgeholt habe, und nicht schlecht staunte:
Da waren doch ganze 5 stolzen Amazon-Wunschlisten-Pakete dabei:
- Laurell Hamilton, Kiss of Shadows von Kristian Hall (Oslo)
- Charlaine Harris, Dead until Dark und Laurell Hamilton, Kiss of Shadows von Kristian Köhntopp
- Noah Gordon, Der Medicus von Thomas Hochstein
- Dogma, Mulholland Drive von Antonio Lite (Spanien)
- Thomas Mann, Der Zauberberg von Thomas Schulz
Das hat mich erstmal umgehauen. Ein großes, kollektives (aber trotzdem individuelles) Dankeschön an euch alle lieben Serendipity-Nutzer, die mir mit ihren kleinen und großen Geschenken und vor allem Feedback so viel Freude machen. Da werde ich ganz rot.
Samstag, 23. April 2005
See London and fight like a cow
Der aktuelle Eintrag von Gaming-Legende Ron Gilbert verleitet doch glatt dazu, einmal nach London zu fahren.
Schön wär's, und ich beneide alle, die tatsächlich ein Treffen mit ihm schaffen werden. Ich persönlich bin die letzten Wochen ja total begeistert vom Giga-Projekt Giga Mansion. Das ist quasi ein eigenständiges 2D-Adventure, gebaut mit dem Tool AGS - Adventure Game Studio.
Da muss ich mich unbedingt einmal reinarbeiten, das sieht wirklich genial aus. Wenn ich doch nur Pixeln könnte und spontan eine tolle Story-Idee hätte. *seufz*
Einfach nur genial, das Tool und Beispiel-Spiele muss ich mir demnächst angucken.
Schön wär's, und ich beneide alle, die tatsächlich ein Treffen mit ihm schaffen werden. Ich persönlich bin die letzten Wochen ja total begeistert vom Giga-Projekt Giga Mansion. Das ist quasi ein eigenständiges 2D-Adventure, gebaut mit dem Tool AGS - Adventure Game Studio.
Da muss ich mich unbedingt einmal reinarbeiten, das sieht wirklich genial aus. Wenn ich doch nur Pixeln könnte und spontan eine tolle Story-Idee hätte. *seufz*
Einfach nur genial, das Tool und Beispiel-Spiele muss ich mir demnächst angucken.
Freitag, 22. April 2005
Serendipity Caching-Plugin
Auf der Bahnfahrt heute dachte ich mir, ein einfaches Voll-HTML-Caching Plugin für Serendipity sollte doch etwas nettes sein.
Das Plugin soll eigentlich nur jede Seite anhand der URL cachen, etwaige GET- und COOKIE-Parameter miteinbeziehen und den Cache bei neuen Kommentaren/Einträgen automatisch purgen und danach beim ersten Request neu erstellen. Ausserdem soll es jede Seite nach maximal 60 Minuten einmal erneut bauen. "Just in Case"-Kompilierung, sozusagen.
Genau das tut mein in 30-Minuten gebasteltes Proof-of-Concept Plugin serendipity_event_cachesimple auch.
Es hat so einige gefährliche Gotchas: Man verliert die "Dynamik" der Seiten. Etwaige dynamische Sidebars, "Quote of the Second" usw. wird so natürlich alles am PHP-Parser vorbeigeschleust. Prinzipbedingt kann Vollseiten-Caching nicht anders funktionieren; einzige Alternative wäre ein modularer Cache. Der wiederrum enthält schon wieder so viel Code und Logik, dass er IMHO zuviel Entwicklungsaufwand für zu geringen Nutzen bietet. Dafür gibt es ja auch bereits das "Erweiterte Eigenschaften"-Plugin, welches jeden Artikeltext nur einmal parst und dann immer den Cache zur Hilfe zieht. Mühsame Smilie-Ersetzungen, BBCode usw. werden nur einmal umgeformt, und sparen so schon eine ganze Menge Performance.
Wer darauf verzichten kann, absolut dynamische Seiten zu haben und dessen Content sich nur selten dynamisch ändert, der dürfte an dem Plugin weitaus mehr Spaß haben und so etwas Slashdot-sicherer machen können.
Das Plugin ist derzeit noch nicht durchweg getestet. Ab nächster Woche werde ich es hier einmal in den Probebetrieb schicken um Probleme zu durchleuchten - dafür wird es dann auch hier etwas Einbußen geben an Dynamik, aber hoffentlich mehr Performance. Selbst das Click-Tracking sollte noch funktionieren, auch wenn die dargestellten Daten dann nur stündlich aktualisiert werden. Über eigene Tests und Weiterentwicklung des Plugins würde ich mich daher sehr freuen.
Das Plugin soll eigentlich nur jede Seite anhand der URL cachen, etwaige GET- und COOKIE-Parameter miteinbeziehen und den Cache bei neuen Kommentaren/Einträgen automatisch purgen und danach beim ersten Request neu erstellen. Ausserdem soll es jede Seite nach maximal 60 Minuten einmal erneut bauen. "Just in Case"-Kompilierung, sozusagen.
Genau das tut mein in 30-Minuten gebasteltes Proof-of-Concept Plugin serendipity_event_cachesimple auch.
Es hat so einige gefährliche Gotchas: Man verliert die "Dynamik" der Seiten. Etwaige dynamische Sidebars, "Quote of the Second" usw. wird so natürlich alles am PHP-Parser vorbeigeschleust. Prinzipbedingt kann Vollseiten-Caching nicht anders funktionieren; einzige Alternative wäre ein modularer Cache. Der wiederrum enthält schon wieder so viel Code und Logik, dass er IMHO zuviel Entwicklungsaufwand für zu geringen Nutzen bietet. Dafür gibt es ja auch bereits das "Erweiterte Eigenschaften"-Plugin, welches jeden Artikeltext nur einmal parst und dann immer den Cache zur Hilfe zieht. Mühsame Smilie-Ersetzungen, BBCode usw. werden nur einmal umgeformt, und sparen so schon eine ganze Menge Performance.
Wer darauf verzichten kann, absolut dynamische Seiten zu haben und dessen Content sich nur selten dynamisch ändert, der dürfte an dem Plugin weitaus mehr Spaß haben und so etwas Slashdot-sicherer machen können.
Das Plugin ist derzeit noch nicht durchweg getestet. Ab nächster Woche werde ich es hier einmal in den Probebetrieb schicken um Probleme zu durchleuchten - dafür wird es dann auch hier etwas Einbußen geben an Dynamik, aber hoffentlich mehr Performance. Selbst das Click-Tracking sollte noch funktionieren, auch wenn die dargestellten Daten dann nur stündlich aktualisiert werden. Über eigene Tests und Weiterentwicklung des Plugins würde ich mich daher sehr freuen.
Mit MacOS Xylescope CSS-Dateien röntgen
Gemeinheit! Ich will sowas haben: Xylescope ist ein Tool, das DOM-Inspection, CSS-Introspection und XHTML-Codeansicht in einem Browser vereint und darstellt:
Sowas habe ich mir erst letzte Woche nochmal gewünscht, und ist ja wirklich praktisch.
Warum gibt es dieses geniale Teil bitte nur für MacOS? Sowas müsste als Firefox-Extension doch echt kein Thema sein. Ansonsten wäre das bisher der griffigste Grund für mich, mir einen miniMac zu kaufen.
Also, liebe Entwickler: Pretty, pretty please with sugar on the top and a red cherry!!
Sowas habe ich mir erst letzte Woche nochmal gewünscht, und ist ja wirklich praktisch.
Warum gibt es dieses geniale Teil bitte nur für MacOS? Sowas müsste als Firefox-Extension doch echt kein Thema sein. Ansonsten wäre das bisher der griffigste Grund für mich, mir einen miniMac zu kaufen.
Also, liebe Entwickler: Pretty, pretty please with sugar on the top and a red cherry!!
Cult7: Meine letzten Male
Cult 7: Und, wie war ich?:
- Welchen Film hast Du zuletzt im Kino gesehen?
The Life Aquatic with Steve Zissou
- Welches Buch hast Du zuletzt gelesen?
Derzeit lese ich Altered Carbon von Richard Morgan, davor habe ich Cerulean Sins von Laurell K. Hamilton gelesen
- Welche Website hast Du zuletzt besucht?
Abgesehen von der Recherche (IMDB, Amazon) für diesen Cult7-Eintrag war das mein Serendipity-Testblog und davor das Blog von Boris Schneider, der in meinem Feedreader vor dem Cult7-Feed kommt.
- Wo hast Du zuletzt außerhalb Deines Heim gegessen?
In der Firma, wo ich auch jetzt gerade bei der Mittagspause sitze
- Wann warst Du zuletzt sportlich selbst aktiv?
Vorgestern abend Hanteltraining.
- Welches sportliche Event hast Du zuletzt live oder am Bildschirm verfolgt?
Zählt die Papst-Wahl dazu? Ansonsten war das, bewusst und als "Vollsport"-Event wohl die EM 2004. Also schon eine Weile her.
- Was hast Du getan, bevor Du diese Fragen beantwortet hast?
Was getrunken, gegessen, und gearbeitet. Nicht spannendes also, leider.
Donnerstag, 21. April 2005
Hommingberger Gepardenforelle
Also da mach ich ja garantiert nicht mit.
Was interessiert mich Fischzucht, Forellen, komische Fische in ihren Teichen und allem was dazugehört? Nix. Genau.
Also weiter mit Premium Content und keinen Cross-Links zu den Hommingberger Gepardenforellen.
Brennend interessiert mich aber noch: Gibt es auch Berginghommer Forellengeparden?
Was interessiert mich Fischzucht, Forellen, komische Fische in ihren Teichen und allem was dazugehört? Nix. Genau.
Also weiter mit Premium Content und keinen Cross-Links zu den Hommingberger Gepardenforellen.
- Heise
- Fischli-Infos 1
- Kackstelzen (egal, die ha'm damit auch was am Hut)
- Dem Handelsblatt
- Selbst unbeliebte Safferthaler bloggen drüber
- Lexikon-Zeug
- Blogger!
- dir!
- ein!
- SEO!
- Ranking!
Brennend interessiert mich aber noch: Gibt es auch Berginghommer Forellengeparden?
Mittwoch, 20. April 2005
W3C: XHTML2 und XFORMS Tutorial
Gestern war in St. Augustin ein vom Deutsch-Österreichischen W3C-Büro veranstaltetes Tutorial zu XHTML 2 und XFORMS, gehalten von Steve Pemberton.
Beim zuletzt veranstalteten Vortrag über RDF war ich auch schon dabei, und war davon so angetan, dass ich natürlich auch dieses Mal teilnehmen musste. Das dachten sich wohl auch andere, denn im Gegensatz zu den damals 40 Teilnehmern waren diesmal 100 angemeldet. Darunter auch Tom, Andy und Nadine mit denen ich dort gemeinsam in der großzügig ausgestatteten Konrad-Adenauer-Stiftung aufschlug.
Das Tutorial wurde in Englisch gehalten und dauerte mit 30-minütiger Pause gut 4 Stunden. In dieser Zeit hat Steve, mit typisch britischem Humor, sehr eindrucksvoll und mit praktischem Beispielen so ziemlich alles über XHTML2 und XFORMS erzählt, was man sich vorstellen kann.
Die vollständigen und sehr ausführlichen Unterlagen zu dem Tutorial befinden sich auf W3.org, die ich jedem nur ans Herzen legen kann.
Hier dennoch ein kurzer Abriss, mit meinem eigenen knappen Kommentar:
» Vollständiger ArtikelBeim zuletzt veranstalteten Vortrag über RDF war ich auch schon dabei, und war davon so angetan, dass ich natürlich auch dieses Mal teilnehmen musste. Das dachten sich wohl auch andere, denn im Gegensatz zu den damals 40 Teilnehmern waren diesmal 100 angemeldet. Darunter auch Tom, Andy und Nadine mit denen ich dort gemeinsam in der großzügig ausgestatteten Konrad-Adenauer-Stiftung aufschlug.
Das Tutorial wurde in Englisch gehalten und dauerte mit 30-minütiger Pause gut 4 Stunden. In dieser Zeit hat Steve, mit typisch britischem Humor, sehr eindrucksvoll und mit praktischem Beispielen so ziemlich alles über XHTML2 und XFORMS erzählt, was man sich vorstellen kann.
Die vollständigen und sehr ausführlichen Unterlagen zu dem Tutorial befinden sich auf W3.org, die ich jedem nur ans Herzen legen kann.
Hier dennoch ein kurzer Abriss, mit meinem eigenen knappen Kommentar:
« vorherige Seite
(Seite 3 von 3, insgesamt 28 Einträge)