3 stylesheets to rule them all?

Sony Ericsson P910i with Opera web browser. Author: Lzur, wikimediaIk schreef eerder al dat ik me voor mijn nieuwe blogthuis (het duurt allemaal wat langer, maar het is dan ook goed toeven op wordpress.com) op het WordPress theme Indigo het gesmeten. Wat me verwondert bij het bekijken van zowat alle WP-themes (en zelfs veel web-software tout court), is het ontbreken van css voor print- en handheld-versies.
Het principe is nochtans eenvoudig; je definieert in je html welke css voor de media “screen” (de default voor gewone browsers), “print” en “handheld” gebruikt moeten worden en de browser kiest dan naargelang de context de juiste css. Makkelijk zat, toch? En toch lijkt bijna geen enkel WordPress-theme dit te doen. Meer nog, je hebt WordPress-plugins om voor een print– en pda-vriendelijke versie te zorgen. Plugins! PHP! CPU en memory-vretende code! Voor iets wat in bloody css kan!?! Maar panikeer niet lieve vriendjes, ik ben er dus mee bezig!
Aangezien print- en handheld-versies in CSS enerzijds makkelijk te bouwen zijn, maar omdat dat anderzijds zo weinig gebruikt lijkt te worden, is mijn vraag van de week: zijn er dan toch fundamentele problemen met het gebruik van print- en handheld-css? Waarom gebruikt gij geen print- en handheld-css? Uw professionele input wordt, zoals steeds, ten zeerste geapprecieerd!

Listen to the radio?

Mijn vrouw en ik, wij mijmeren ‘s avonds in bed graag gezellig over vroeger. Wij doen dat graag en het doet geen pijn, dus daar moet U verder echt geen probleem van maken. Alleszins, een paar dagen geleden hadden we het over de radio en dat we daar alle twee altijd zo graag naar geluisterd hebben. En hoe we erbij kwamen, weet ik niet meer, maar plots herinnerden we ons quasi tegelijkertijd dat vreemde signaal aan het einde van de fm-band, zo rond de 87Mhz. Een zichzelf herhalend elektronisch riedeltje dat aangaf dat je aan het einde van de wereld was gekomen en dat je belette ervan te vallen. Dat geheimzinnig geruststellende signaal is blijkbaar niet meer, we worden tegenwoordig verondersteld als vanzelf te merken wanneer het gedaan is. Maar weet iemand waar ik het over heb? Waar dat deuntje voor diende? En heeft iemand daar een digitale versie van, zodat mijn vrouw en ik daar des avonds, in bed, nog eens naar kunnen luisteren? Om te weten dat alles nog steeds volledig onder controle is en we ook nu niet over de rand van het einde van de wereld zullen vallen? Dank bij voorbaat!
In ruil krijgt U dit toepasselijke pareltje van Tom Robinson (en Peter Gabriël) cadeau. “Listen to the radio” en tegenwoordig ook een beetje naar YouTube;

Atmospherics: Listen To The Radio

Search crawlers & cookies?

Vraag voor SEO- en andere search-software-specialisten: hoe gaan search engine crawlers om met cookies? Google beschouwt cookies alleszins als een “fancy feature”, maar het is niet helemaal duidelijk of ze dat nu wel of niet ondersteunen (“search engine spiders may have trouble crawling your site”). En wat doet Nutch bijvoorbeeld?
Ik heb een klein experimentje opgezet. Een stomme pagina zet 4 soorten cookies: een combinatie van session cookies en cookies die expiren na 1 uur met host-afhankelijke en domain-cookies. In de value van die cookies staat mijn naam en het type cookie dat gezet werd. Dat alles serverside, ik ga er immers van uit dat crawlers al helemaal niks kunnen doen met cookies die in javascript worden gezet (of gelezen). Op die setcookie-pagina staat er dan een gewone href-link naar de readcookie pagina, waar al die cookies serverside worden uitgelezen en in gewone html getoond. Crawlers die langskomen, krijgen dus potentieel 4 cookies te verteren en volgen dan mooi de link naar de readcookie-pagina. Als de zoekrobot mijn koekjes gegeten heeft, staat de tekst van die cookies op die 2de pagina en zit die dus ook in de searchindex. Spannend!
Om te besluiten waarmee we ook begonnen waren: heeft er iemand in tussentijd goeie tips of info over dit onderwerp?

Gezocht: website search

We zijn op het werk op zoek naar een nieuwe search-oplossing. De huidige zoek kan enkel content in het eCMS-repository van onze portal ontsluiten. Aangezien verschillende subsites niet meer in die te complexe omgeving zitten, ontbreken er veel relevante resultaten. Daarom zoeken we dus een min of meer kant-en-klare crawler-based oplossing (software of “in asp”) die al onze sites moet indexeren (gescheduled en ‘on demand’) en die, mits aangeroepen met de juiste parameters, resultaten voor 1, enkele of alle sites teruggeeft in de juiste taal en in de juiste look & feel.


Ik bekeek Searchblox (software) en Google Custom Search Business Edition (asp) al, maar ik twijfel er niet aan dat er nog goeie (en misschien wel volledig open source) oplossingen zijn. Wie ervaring met deze of andere producten heeft; de comment box hieronder is all yours, of contacteer me rechtstreeks.

Pinguïn-heuvel te Lokeren?

Gisteren bij het buitenfietsen van het station van Lokeren (aan de achterkant) een bijzonder nieuw verkeersbord gezien;

de Lokerse pinguin-heuvel?
Het bord staat weliswaar ter hoogte van een verkeersdrempel, maar iets zegt me dat die twee niets met elkaar te maken hebben. Ik denk dat dit een pinguïn-heuvel-kampeerplaats moet uitbeelden. Dat is tof van Stad Lokeren (en/of NMBS), want pinguïns op vakantie verdienen het dubbel en dik om goed ontvangen te worden tijdens de Lokerse Feest-week. Zelfs Ludo Gerits moet het hier roerend mee eens zijn, toch?
Of denkt ge dat ik me in mijn interpretatie laat meeslepen, beste lezer? In dat geval; de commentaar-box hieronder is de uwe. Laat U maar eens goed gaan!
(en ja, tip top de verkeerde datum staat verstopt; ik heb mijn Windows Mobile pda moeten ‘cold booten’ en dan verliest die al zijn tijdsbesef. nog flink gevloekt ook toen ik bovenstaande foto gisteravond niet direct terugvond in het op datum gesorteerde verkennertje)

Gezocht: linux (vps-)hosting

wikipedia serverkast in amsterdam, van wikicommonsIk ben plotsklaps op zoek naar goeie en goedkope hosting, waarbij volgende features belangrijk zijn:

  • linux (liefst ubuntu of debian, maar redhat ofzo zal wel lukken en in extremis ook freebsd ofzo)
  • shell-access met ssh (inclusief port forwarding!)
  • php5 en mysql5
  • root-toegang (eigenlijk vooral om sshd ook op de https-poort te kunnen zetten, zodat ik me door de ambetante company proxy hier kan wurmen)

Dat ruikt dus naar VPS-hosting en dit Duitse aanbod lijkt me wel interessant en is alleszins goedkoop. Iemand nog tips? 🙂

Gratis en voor *nix online backuppen?

Iemand tips voor online storage services om een backup (een tar.gz-file van pakweg 300mb) bij te houden? Liefst met ondersteuning van ftp of rsync en dus niet met een proprietary windows client of een complexe web interface, zodat ik dat tenminste proper kan shellscripten? Gratis? 🙂

Onclick event handler in A HREF’s?

De collega’s van marketing willen bij sommige URL’s onclick event handlers laten toevoegen die elke klik loggen bij een web analytics aanbieder. De Onclick-javascript functie haalt wat gegevens op en voegt die toe aan een request voor een -onzichtbare- image.
Mijn eerste gedacht; niet doen, de onclick wordt eerst uitgevoerd en als de request voor die image te lang duurt (op basis van onze ervaring gingen we uit van ongeveer 0,6 seconden) moet de gebruiker ook extra lang wachten op de pagina die hij/zij opvroeg (want eerst onclick en dan pas request voor de feitelijke pagina in de href). Ik leek hier ook bevestiging voor te vinden op quirksmode dus niet doen?
Dit weekend begon ik me echter af te vragen of dit wel kon kloppen; alle wordpress-blogs bijvoorbeeld, houden klikgedrag op ongeveer die manier (wel niet de traditionele onclick, maar met echte events) bij. En die web analytics aanbieder, zouden die zoiets in productie zetten als dat een probleem zou zijn? Een testje dan maar, met volgende code:

<html>
<head>
<script>
function exec_me() {
//bust cache
rnd=Math.floor(Math.random()*1000000);
url=’http://florentsmet.be/distel.jpg?n=’ + rnd;
//wait a few seconds and then fetch image
setTimeout(“loadimg(url)”,192);
}
function loadimg(url) {
//declare image
var i=new Image(1,1);
//load image
i.src=url;
}
</script>
</head>
<body>
<a href=”http://www.google.com/” onClick=”exec_me();”>gogoogle</a>
</body>
</html>

Ik ga dan in de logs van florentsmet.be (site van mijn vrouwken over haar overleden grootvader die kunstschilder was) kijken en zie dat die image in FF perfect geladen wordt als die timeout op een laag cijfer staat (onder de 190 milliseconden) en nooit als die boven die 195 ms. In MSIE lijkt 215 zo een beetje het punt tot waar dat werkt.
Is dat nu een race-condition? En hangt die dan af met welke browser je werkt? Heeft iemand hier ervaring mee, of een paar goeie links waarin dit beschreven wordt? En vooral, op basis van deze tests zou ik besluiten dat die onclick-logging van geklikte links geen probleem is. Iedereen akkoord daarmee dan?