De NMBS wilt mijn e-mail-adres, maar…

nmbs smile promoVandaag als pendelaar-met-treinabonnement van de NMBS een brief in de bus gekregen. Ze hebben mijn mailadres niet, schreven ze en dat ze me daarom wel een papieren brief moésten sturen. En dat er niet minder dan 4 goede redenen waren voor een smile (“Reden 3: Als U snel reageert, wint U misschien wel 2 weekendbiljetten”). Ook al ontving ik nog nooit papieren post van de NMBS, toch vind ik het geen slecht idee om “de papierberg te beperken”. Ik heb het als super-pendelaar daarenboven ook nogal voor de trein en ik smile ook al eens graag, dus trok ik naar e-perron www.nmbs.be om daar mijn mail-adres achter te laten. Maar toen liep één en ander toch een beetje mis …


Op de nmbs-site moest je, zo schreef ir. Sabin S’heeren, Directeur-Generaal Reizigers Nationaal, op de banner met het lachende gezichtje klikken. Dat lachende gezichtje ziet er op de site overigens maar triestig uit; heeft iemand die mooie brief van de Directeur-Generaal op de scanner gelegd en het resultaat op de site gegooid? Maar alleszins, er zit geen link onder die corny smilies. De tekst eronder is vetjes en donkerblauw, daar misschien? Nee, ook geen link achter de titel. Ah, een “Meer”-knop. Klik!
Alzo kwam ik een paar kliks later op de eigenlijke applicatie-pagina. Spijtig genoeg met de mededeling dat de toepassing niet beschikbaar is. Vreemd. Te veel volk die hun mailadres willen weggeven? Niet op tijd klaar geraakt met deployen? Of is de load op de backends te hoog?
Hoedanook, 10 minuten later opnieuw geprobeerd en ik kwam daadwerkelijk op een eerste invulscherm. Treinkaartnummer en geboortedatum. Abo erbij gehaald voor dat 12-cijferige nummer, geboortedatum ging zo wel lukken. Of niet? 10-12-1968 is niet juist, 10/12/1968 wel. Dat schreven ze ook mooi zag ik daarna, maar hoe moeilijk is het om een datumveld met wat javascript te normaliseren?
Submitten en een goeie minuut of zo wachten en ier seh daar seh, het tweede scherm staat daar toch wel te blinken zekers! Mijn adresgegevens staan mooi vooraf ingevuld, synchrone connectie naar mainframe moeten doen, afgaande op de traagheid der applicatie?. Maar kom, een mens moet niet altijd klagen, vooruit met de geit! Mijn mailadres toevoegen, enkele checkboxes uitvinken (want nee, ik wil geen mails over promoties en nee, ik wil niet deelnemen aan enquêtes), submitten en … Halt, stop, eeks; bij submit zie ik dat die checkboxes allemaal terug aan staan!!! WTF! Cancel. Uitvinken. Opnieuw submit en die checkboxen flitsen terug aan, brrr … Doorbijten dan maar, ik zal die opties straks nog wel kunnen wijzigen veronderstel ik?
Even later, ik moest deze keer zelfs geen minuut wachten, een bevestigingsscherm. En wonder boven wonder, ze hebben mijn checkbox-vinkjes toch mooi verwerkt, geen spam van de NMBS voor Goossens. Jeuij! Maar er is blijkbaar nog een probleempje met het postcode-veld (dat uit die stoffige mainframe kwam). Of ik dat manueel wil verbeteren? Off course, we passen ‘9160 Eksaarde’ aan naar ‘9160 Lokeren’ en proberen opnieuw.
Twintig minuten en een half grof brood later (een mens leeft niet van internet alleen, maar van elke boterham die uit zijn vrouw haar pollen komt) kijken of er op dat nmbs-scherm al iets staat over het te winnen weekendbiljet. Auw. Nééééééééééé! Boel kapot. Een monsterachtige null-pointer-exception (de eigenlijke stacktrace liet ik weg);

The servlet at /updateAddr.do in WAR /cartetrain/SilverStream/Objectstore/Jars/addronline generated an exception
The error occurred on a ‘POST’ request to URL http://cartetrain.b-rail.be/cartetrain//addronline/updateAddr.do.
Aug 29, 2007 1:02:03 PM


Exception Information
com.sssw.shr.http.AgoServletException
The servlet at /updateAddr.do in WAR /cartetrain/SilverStream/Objectstore/Jars/addronline generated an exception
java.lang.NullPointerException

Niks aan te doen, ga terug naar start, u ontvangt geen geld? En terug naar start gaan, dat probeer ik nu alweer een kwartiertje, maar ik krijg na het invoeren van treinkaartnummer en geboortedatum steevast:

De toepassing die u wilt gebruiken is momenteel buiten dienst.
Wij verontschuldigen ons voor dit ongemak.

Pffff … Ik zal het straks even aan mijn vrouw vragen, maar ik denk echt niet dat ik nog steeds aan het smilen ben.
Persoonlijk bericht voor Directeur-Generaal Reizigers Nationaal Dhr. Ir. Sabin S’heeren: dit moet echt beter kunnen! Haal uw mainframe-mensen uit hun ivoren toren als het over ontsluiting van data op het web gaat. Laat de communicatie-ploeg, die uw sobere maar propere papieren brief schreven, meewerken aan de het online luik van de actie (op voorwaarde dat die mensen ook web ademen, natuurlijk). Betrek web-frontend-developers en usability-specialisten om de toepassing aangenaam in gebruik te maken (ook als het fout gaat, een woeste java stacktrace op argeloze bezoekers loslaten is tegenwoordig echt wel not done). En laat die dingen heel grondig testen, functioneel en technisch. Geef maar een seintje als het gerepareerd is. U kent mijn mailadres toch, niet?

Safari3 vreet geen wiki meer!

webkit logoGroot nieuws: Safari3 is de smaak van mijn wiki eindelijk beu en vreet er geen tekst in de textarea’s meer! De webkit nightly build van 26-8-2007 (werkt enkel als je Safari3 voor Windows al geïnstalleerd hebt staan) heeft deze lelijkaard immers de wereld uit geholpen.
Als ik de uitleg in de webkit-bugtracker goed begrijp, werd de bug veroorzaakt door toetsaanslagen die onterecht als tekstinput werden beschouwd en daardoor als ‘null character’ werden ingevoegd. Die null characters en/of control characters (die ondingen gooien ook roet in het eten, snap niet waar die vandaan komen maar soit) zorgden er dan voor dat de rest van de textarea werd “opgegeten”. Ofzo?
Alleszins; groot feest gister in Eksaarde, mijn vrouw, dochterken en ik dansten de polonaise en de buren hosten enthousiast mee. Terug in de echte wereld besefte ik wel dat ik nog wel enkele probleempjes met Safari3 voor Windows heb; ik krijg nog regelmatig de foutmelding “Safari can’t open the page” met detail “unknown error” ((null):10053)”, maar misschien moet ik Safari 3.0.3 eens installeren om ook dat te hertesten? Mijn vertrouwen in de Apple-bughunters staat alleszins in het zenit, dat wordt me daar een fantastische browser mensen! 🙂

Brengt Firefox 3 ons de nieuwe animated png standaard?

Net gelezen op de Mozilla Labs Blog: Firefox 3 zal apng’s ondersteunen, animated png’s. Een alternatief voor slome animaties in flash én voor de lelijke -want met een bijzonder beperkt kleurenpalet- animated gifs? “Tof”, bedacht ik, “nog even wachten tot MSIE8 die nieuwe standaard ook ondersteund en we zijn weer een stapje verder in de goeie richting”.


Niet dus: apng‘s blijken een uitvinding van de Mozilla-mensen en de png-werkgroep heeft hun voorstel, dat eigenlijk een alternatief wilde bieden voor de onpopulaire mng-standaard, in april 2007 afgewezen. Er liggen momenteel nog een paar andere ideeën op tafel, maar er is dus nog geen standaard voor animated png’s. apng’s zullen hun nut ongetwijfeld hebben als browser-component -en daar focust het artikel op Mozilla Labs dan ook op- maar voor animated png’s op het internet lijkt het alleszins nog altijd te vroeg. Spijtig.

Terracotta: transparante clustering voor Java?

terracotta logoNet gelezen op CMSWatch Trends; Terracotta is een nifty open source oplossing om Java-applicaties transparant te clusteren. CMSWatch vat de werking vlotjes als volgt samen:

“it works by clustering the Java Virtual Machine in such a way that even a participating JVM itself doesn’t know that it has been enlisted in a coordinated effort of any kind. Through a clever bit of boot-time dependency injection, Terracotta patches a handful of core JVM memory-management bytecode instructions, achieving transparent virtualization across any number of enlisted VMs, under the control of a Terracotta server that lives in “aspect space.” The Java memory model is not altered. Application code does not have to handle locks any differently or follow any special APIs, or even know that it’s been clustered.”

Terracotta kan op die manier zowat alle bekende Java-frameworks en -applicaties clusteren. Een greep uit het lijstje; Spring, Struts, Hibernate, Lucene, Wicket, Rife, Tomcat, JBoss, maar ook Bea Weblogic en IBM Websphere. Terracotta kan voorts instaan voor HTTP session replicatie (volgens benchmarks veel sneller dan Tomcat Pooled Sessions) en voor Distributed cache management (met Terracotta kan de beperking van de JVM heap size omzeilen).
Dat ziet er mooi uit, ook al snap ik het allemaal nog niet 100% (straks de demo eens bekijken, ziet er mij ‘for dummies’ uit). Maar U bent misschien wel al volledig mee? In dat geval: waar wacht U dan nog op? 😉
Aanvullende vraag: heeft er hier iemand al ervaring mee? In een productie-omgeving? Commentaar welkom!

Gezocht: website search

We zijn op het werk op zoek naar een nieuwe search-oplossing. De huidige zoek kan enkel content in het eCMS-repository van onze portal ontsluiten. Aangezien verschillende subsites niet meer in die te complexe omgeving zitten, ontbreken er veel relevante resultaten. Daarom zoeken we dus een min of meer kant-en-klare crawler-based oplossing (software of “in asp”) die al onze sites moet indexeren (gescheduled en ‘on demand’) en die, mits aangeroepen met de juiste parameters, resultaten voor 1, enkele of alle sites teruggeeft in de juiste taal en in de juiste look & feel.


Ik bekeek Searchblox (software) en Google Custom Search Business Edition (asp) al, maar ik twijfel er niet aan dat er nog goeie (en misschien wel volledig open source) oplossingen zijn. Wie ervaring met deze of andere producten heeft; de comment box hieronder is all yours, of contacteer me rechtstreeks.

Web 2.0 insecure? Bullshit (of dan toch grotendeels en nu ook met update)!

Op de Black Hat conference in LA werd gedemonstreerd hoe een GMail- of Facebook-sessie kan worden gehackt.


Voor zover ik kan zien, werd hier eigenlijk een wijd open deur ingetrapt; op een (Wifi-)netwerk alle verkeer naar bv. gmail of facebook sniffen, de session-waarde uit de cookie overnemen in de eigen cookie en voor je het weet zit ik in uw mailbox te snuisteren.
Het probleem heeft eigenlijk helemaal niets met web 2.0 te maken, maar gaat over de vreemde beslissing van oa. Google en Facebook (en eigenlijk zie je dat bijna overal) om enkel het login-proces te beveiligen (achter https te zetten). Eenmaal succesvol aangelogd ga je terug naar onbeveiligd verkeer (http zonder de s van secure) en dan is je cookie dus leesbaar voor iedereen die aan je netwerkverkeer kan.
De oplossing voor GMail is alvast eenvoudig: als je als URL zelf https://mail.google.com ingeeft, ben en blijf je in https en is ook je cookie niet meer zomaar te lezen. Ik heb mijn bookmark al aangepast 🙂 Bij Facebook en Linkedin lijkt dat alvast niet te lukken.
Meer info:

Update: ondertussen zit ik op de trein (bovenstaande had ik nog snel-snel op het werk geschreven) en ik heb nu even tijd om wat verder uit te weiden (en open deuren in te trappen) in de vorm van een paar vragen en antwoorden.
V: waarom zijn die (sessies in) cookies nodig?
A: omdat het web (het onderliggende http-protocol) eigenlijk ‘stateless’. Een request (de logon op Facebook bv.) kan aan serverkant enkel aan een volgende request (narcistisch bekijken van je vriendenlijst) gelinkt worden door middel van een sessie. Die sessie wordt geïdentificeerd door een sessionid, die maar op een paar manieren kan worden uitgewisseld; in een cookie, in een url (als parameter in een GET-request) of in een form (als parameter in een POST-request). Van die drie methodes is een cookie ontegensprekelijk de properste, maar qua security zijn ze in principe quasi even (on-)veilig.
V: waarom steken Google en al die andere hot-shots hun applicaties dan niet volledig achter https?
A: de s in https betekent dat alles geëncrypteerd wordt. Encryptie betekent dat de processoren aan ontvangende maar vooral verzendende kant wat meer werk hebben en dat de hoeveelheid data groter wordt (wat een geëncrypteerde tekst bestaat in principe uit meer karakters dan het origineel). Omdat Google, maar meer nog Facebook, Linkedin en andere fancy applicaties gebaat zijn bij het beperken van CPU-load en te versturen data, werken ze dus liever gewoon in http.
V: en kan die sessie dan niet op een andere manier beveiligd worden?
A: in principe wel, maar dan begeeft een developer zich in woelige wateren. Je zou aan serverkant kunnen bijhouden vanop welk ip-adres de gebruiker inlogt (evt. met nog een paar andere parameters zoals useragent van de browser) en dat voor elke request opnieuw controleren. Als een hacker dan met een sessie aan de haal gaat, is de kans groot (maar niet gegarandeerd) dat die parameters niet overeenkomen en dan kun je die malafide gebruiker vragen terug in te loggen. Andere (aanvullende) mogelijkheden zijn het beperken van de geldigheid van een sessie en het afblokken van gelijktijde gebruik van dezelfde login (het gelijktijdig gebruik van dezelfde sessie). Maar met al deze “oplossingen” is de kans groot dat je op bonafide gebruikers zult moeten lastigvallen om terug aan te loggen of zelfs buitensluiten (in het geval van concurrent sessions) . En dat maakt gebruikers zenuwachtig.
Conclusie: er is geen ontkomen aan, je moet https echt vanaf login tot aan de logout gebruiken (en voor alles, ook images in die pagina’s, anders krijg je in sommige browsers lelijke security-warnings). Eén troost: er bestaan hardware-oplossingen (ssl-encryptie devices en insteekkaarten) om de impact op CPU-load tot een minimum te beperken. Met de grotere hoeveelheid dataverkeer zul je dan maar moeten leren leven 🙂

Terug naar de command line!

ms word screenshotMijn echte fans weten het al, ik ben zelfverklaard lid van de Kerk van de Penguïn en aspirant Command Line Ridder. De command line (CLI) is misschien niet de meest vanzelfsprekende user interface, maar het is schier onmogelijk om de ongelofelijke kracht van taal (want daar gaat het op de command line over) om te zetten in een visuele representatie. En het lijkt erop dat taal als ‘aanstuurmechanisme’ aan een comeback toe is!
De kracht van taal
Is het toeval dat de bekendste internet-applicatie (Google eh pippo, niet Second Life) puur op basis van taal werkt? Waarom is desktop search één van de belangrijkste functionaliteiten in Windows Vista (en daarvoor al in Mac OS X Spotlight en in Google Desktop)? Omdat taal een ongelofelijk krachtige manier is om software aan te sturen. Een meer traditioneel CLI voorbeeld misschien nog; om de hostnames van alle unieke bezoekers van deze blog te vinden die mijn babelfish-vertaling-hack gebruiken (en dat zijn er niet bijster veel, waar zijt ge eigenlijk mee bezig Goossens?), plak ik de in- en output van enkele commando’s met een paar pipes aan elkaar tot ik iets als dit heb:

grep babel wwwlogs/e-cafe.be | grep 302 | cut -f 1 -d ” ” | sort | uniq | nslookup – | grep “name = “

Et voila, daar staan ze alle twee. Dat kan natuurlijk ook in een grafische gebruikers omgeving (een GUI), met pakweg MS Excel. Maar daar ben je dan wel echt net iets langer mee bezig (ik tel een 10-tal stappen, van het openen van Excel over het importeren van de data met de wizard en het toepassen van 3 filters tot het scripten van de nslookup).
GUI vs CLI
Maar dit is niet de zoveelste anti-MS blogpost, in Mac OS X en zelfs in al die Linuxen is de grafische user interface ook de de facto omgeving. Shell-scripten (bat-files! cmd.exe!) kan ook in Windows en wat meer is, Microsoft heeft onlangs PowerShell uitgebracht (gratis te downloaden) waarmee ze -in eerste instantie voor sysadmin-taken- volop voor de kracht van de CLI gaan. Nee, het gaat me hier eigenlijk over het feit dat een grafische interface, met die mooie icoontjes en geneste menu’s, in bepaalde gevallen eigenlijk minder gebruiksvriendelijk en productief is. Zoals een niet-grafische interface voor bepaalde taken (bv. het bewerken van foto’s) ook minder geschikt is. En -hier komt mijn langverwachte pointe- dat een hybride vorm van een GUI en een CLI ons op dat vlak misschien de toekomst is.
Best of both worlds
Enter Humanized. Dit klein Amerikaans bedrijf werkt verder op basis van de concepten van de inmiddels overleden Jef Raskin. Raskin was het brein achter de Macintosh en besteedde de laatste jaren van zijn leven o.a. aan Archy, een radicaal andere user interface. Eén van de eerste producten van Humanized, Enso Launcher, brengt een paar van de concepten van Archy nu naar Windows. And I love it!
enso learn as screenshot (from the humanized site)Eenmaal de “30-days free trial version” van Enso Launcher geïnstalleerd, is je shift-lock (ofte caps-lock) weggekaapt door de software (good riddance). Met die toets activeer je vanaf nu Enso om alle software op je computer op te starten door ‘open <programmanaam>’ in te tikken. Enso kent al je software al en zal, aan de hand van de letters die je invult, suggesties doen die je met de cursor-toetsen kunt selecteren (beetje zoals Google Suggest). Maar er is meer; je kunt Enso nieuwe commando’s leren (ik moet bv. enkel “open wr” typen en “write blog” te selecteren om hier te komen schrijven, of “open kcrw” om naar het fantastische kcrw te luisteren), je kunt via Enso een window (of tab in een browservenster) naar voor halen, Enso kan rekenen maken (klinkt stom, maar is eigenlijk best handig), geselecteerde tekst omzetten in lower- of uppercase, copy/pasten, googlen, …
Dat de Launcher maar het tipje van de Enso-ijsberg is, blijkt uit de presentatie die Asa Raskin op de Google campus gaf onder de titel “Death of the desktop”. Wie tijd heeft (het duurt algauw toch een uur en half, maar ) kan die hier bekijken.
Browsers?
mockup of bookmarks and search (from the google labs blog) Wie op de tags bij dit artikel let, heeft misschien al gezien dat ik dit ook onder ‘browser’ heb gecatalogeerd. Waarom? Wel, ik las op de Firefox Labs blog dat men daar overweegt om bijvoorbeeld de search-box op die manier te ontsluiten en om tekst-gebaseerde bookmarking te introduceren. Als ik kijk naar de chaos in mijn diep geneste bookmarks-folder, dan kan ik me het voordeel levendig inbeelden. Dit wordt ongetwijfeld vervolgd!

De volgende web (r)evolutie is hier (bijna)!

some logo, not telling you what it’s from though :-pWeb 2.0: been there, done that? En wat nu? Wel, Tim Berners-Lee en andere visionairen beweren dat de toekomst van het web semantisch zal zijn. Waarmee ze bedoelen dat informatie op het web betekenis moet krijgen voor machines (software), zodat die zelf verbanden kunnen leggen om die verzamelde data dan aan de gebruiker te presenteren. Het idee van Tim Berners-Lee is ondertussen al meer dan 5 jaar oud en er is in de praktijk eigenlijk nog niet veel gebeurd op het vlak van het semantische web. Maar nu lijkt er een doorbraak op til met een elegante en betrekkelijk eenvoudige oplossing om web-data te structureren.
microformats logo De volgende web (r)evolutie zou dan ook wel eens kunnen worden ontketend door microformats. Dat is informatie in gewone web-pagina’s die in de html-code extra getagged wordt, om diezelfde pagina ook voor machines en software bruikbaar te maken. Een heel eenvoudig voorbeeld met een gewone link:

<a href=”http://e-cafe.be/frank/”>frank goossens</a>

een beetje aanpassen naar

<div class=”vcard”><a href=”http://e-cafe.be/frank/” class=”url fn”>frank goossens</a></div>

en mijn naam en de url van mijn (shabby) homepage zijn ontsloten middels de hcard-microformat en daarmee ook “machine-readable”! Voor hcard zijn er nog veel andere attributen (adres, geboortedatum, nickname, foto, …) en daarnaast zijn er ook microformats voor bv. kalenderinformatie (hcalendar), recensies en tags. In die laatste incarnatie worden microformats overigens nu al ondersteund door zowat alle blogsoftware.
Ja, en dan?
En wat kunt ge daar dan mee Goossens? Awel; de gestructureerde informatie in microcards kan in principe gelezen worden door je browser, door zoekmachines of door andere gespecialiseerde software. En daar kan die data aangevuld worden met andere gestructureerde informatie om al dat moois dan voor uw en mijn gebruiksgemak te presenteren. Het valt bijvoorbeeld te verwachten dat zoekrobotten (technorati heeft dit al in de keuken staan) microformat-informatie zullen verwerken en gebruiken om zoeken op iets als “alle events in Gent van 14 tot 23 juli” in kalender-formaat mogelijk te maken. Of dat je browser microformats herkend en je die rechtstreeks in je contact-, kalender-applicatie of in google earth/ maps kunt binnenhalen (spoiler: dat kan nu al, lees vooral verder).
Veel beter uitgelegd
Vorige maand hield FF-user experience designer Alex Faaborg een presentatie over microformats die in dit kader zeker mag gezien worden (link naar slideshare-presentatie).
De doorbraak
operator screenshotMicroformats bestaan ondertussen 2 jaar, maar er zijn een paar stevige redenen waarom de doorbraak er in 2008 zit aan te komen; ze zitten dus in Firefox 3 en Internet Explorer 8 zal die vermoedelijk ook ondersteunen (Gates gaf zijn zegen in 2006). Er is overigens nu al een microformats extensie beschikbaar voor Firefox 2; Operator, ontwikkeld door een IBM-developer, dat kan ook al tellen als geloofsbrief. Operator vormt overigens de basis van de microformats-ondersteuning in FF3.
Anderzijds lijkt er ook aan de kant van websites ook wat te bewegen: sites als upcoming.org, plaxo, salesforce en linkedin bieden hun info nu al via microformats aan. Aan de kant van “website beheer software” zijn ontwikkelaars van open source systemen als Drupal, MediaWiki en WordPress microformats aan het integreren. Het lijkt me niet meer dan logisch dat dit een selectiecriterium voor keuze van corporate webcms’en zal worden (waarbij CMS’en die op basis van contenttypes werken, duidelijk in het voordeel zijn).
Hoort U het ook?
Wat ajax gedaan heeft voor web 2.0, zullen microformats voor <insert buzzword here> doen; met betrekkelijk eenvoudige technologie de basis leggen van ontwikkelingen die het web naar een volgend niveau kunnen tillen. Wie een site beheert waar contact-gegevens of gebeurtenissen op gepubliceerd worden, heeft de klok horen luiden, ga nu uw klepel zoeken!
Meer info:

5 tips voor succes op het web

Ik ben voor mijn werk aan een presentatie over functionele en technologische keuzes voor websites bezig. Als basis voor die keuzes, stel ik, moeten de redenen van het succes van het internet genomen worden, want die gelden even goed ook voor individuele websites. Zo voor de vuist weg (niet echt, ik ben hier al een tijdje over aan het prakkiseren) kan ik er een 5-tal bedenken:

  1. Geef de mensen informatie!
  2. Daar draait het op het web immers om, informatie. Dus niet over hoe leuk het er allemaal uit ziet (al is dat altijd mooi meegenomen), niet over een promootje op je webshop en ook niet over CPC van je Google Adwords campagne. Nee, het draait in eerste instantie echt gewoon over ‘kwalitatieve content’, over ‘inhoud’. De mensen willen internet om dezelfde redenen als waarom onze verre voorouders vroeger encyclopedieën kochten; omwille van de belofte dat je, als je dat wilt, informatie onmiddellijk ter beschikking hebt.
    tip 1: Zorg voor kwalitatieve informatie waar je doelgroep iets aan heeft.

  3. Gratis is nooit te duur
  4. Inhoud is koning, keizer, admiraal, maar verwacht niet dat gebruikers voor ‘gewone informatie’ zomaar geld zullen neertellen. De grote succesverhalen op het web zijn niet toevallig geheel of gedeeltelijk gratis. Google, Youtube, Wikipedia, die duizenden internet-fora … allemaal gratis inhoud.
    De truc voor wie toch geld wilt vragen voor zijn “content”, is een evenwicht te vinden tussen je gratis en je betalend aanbod. LinkedIn is een goed voorbeeld; iedereen kan zonder een eurocent uit te moeten geven lid worden en je kunt met zo’n gratis account perfect online netwerken. Maar terwijl je, blij als een kind met deze toffe gratis dienst, je online netwerk beetje bij beetje verder uitbouwt, voeg je zelf ook informatie (en nieuwe gebruikers) toe. Eenmaal je goed en wel op weg bent, schrijf je misschien ook een aanbeveling of beantwoord je vragen in de ‘answers’ sectie. Gratis informatie geven en nemen, in ieders voordeel. Alleen voor een klein een deel van de meest sexy functionaliteit tenslotte (de volledige lijst van wie je profiel bekeken heeft bv.), moet je wel betalend lid zijn. Online uitgevers zoals De Standaard en de muziek- en filmindustrie lijken overigens nog te worstelen met het vinden van de juiste verhouding tussen gratis en betalend.
    tip 2: Geef je bezoekers die informatie ten minste gedeeltelijk gratis.

  5. “Wie doet er mee, internetteke?”
  6. Internet drijft dus op gratis inhoud, maar wat meer is: iedereen mag meedoen! Wie toegang tot internet en een browser heeft, kan mee zoeken en lezen, maar kan vooral ook mee schrijven en linken. Het internet is op die manier vanzelf viraal; je leest, je reageert, je schrijft zelf, je stuurt linken door, … Het succes van internet en van succesverhalen als Youtube, Wikipedia, Facebook en dichter bij huis van bv. de Telenet Games-fora (nu geïntegreerd in 9lives.be) is dan ook mee te danken aan het feit dat iedereen mag meekijken, meespelen en mee promoten. Het internet, dat zijn de mensen. Vergeet die hippe marketeers en trendwatchers dus maar; het internet is vanaf de allereerste site (van Tim Berners-Lee aan de CERN in Genève, zie zijn oproep om zelf content te publiceren of software te schrijven in ‘How can I help‘) altijd al een viraal en sociaal medium geweest!
    Dat iedereen mag meedoen, gaat inderdaad verder dan het puur inhoudelijke: ge kunt, als ge na het lezen van dit artikel een geweldig idee hebt, onmiddellijk beginnen om nieuwe spannende software voor het web te schrijven. Internet en het www zijn immers gebaseerd op open, gestandaardiseerde technologie (tcp/ip, smtp, http, html, …) waar geen rechten op betaald moeten worden. Daarnaast heeft ook het succes van het open source ontwikkelmodel sterk bijgedragen tot de grote hoeveelheid beschikbare kwalitatieve software voor het internet (denk aan Bittorrent, Firefox, Apache, WordPress, Drupal, Mediawiki, …) en op die manier voor het succes van het web in zijn geheel.
    Voeg het idee van open communicatie en open software development tenslotte samen en “shake firmly” tot je een mashup hebt; web-applicaties (zoals Amazon en Google Maps), social-networking-sites (zoals het al vermeldde Facebook en binnenkort ook Linkedin) en andere web2.0-software projecten (opnieuw; Drupal, WordPress, Mediawiki, Joomla, …) laten ontwikkelaars toe om met behulp van een API (application programming interface) widgets, extensions en plugins te schrijven die extra functionaliteit in hun sites integreren of die informatie van hun site halen om ze in een andere context (bv. iGoogle of live.com of rechtstreeks in je browser) te publiceren. Het resultaat: gratis extra functionaliteit voor je bezoekers!
    tip 3: zet je website “wijd open”; een standaard browser moet voldoende zijn, moedig het linken naar je content en gebruik van je rss-feeds aan, bevorder communicatie op en/of over je site en overweeg de mogelijkheid van het openstellen van je applicaties voor “amateur-ontwikkelaars”.

  7. Uw grootmoeder kan het!
  8. Een oppervlakkige kennis van computers is voldoende om het internet op te trekken. Computer opstarten, icoontje van je browser klikken, naar Google, zoekterm intikken, à volonté op al die hyperlinks klikken, ge moet daar niet voor gestudeerd hebben mijnheer! Verkeerde pagina? Eén klik op de back-knop en je zit terug in je zoekresultaten (het web is sequentieel, ge gaat van pagina A naar B naar C terug naar B naar D, …) en als je een toffe pagina hebt gevonden; in de bookmarks ermee! Dat is het. Indien surfen niet zo eenvoudig zou zijn, hadden de webbouwers en -marketeers onder ons nu niet zo een fijne job.
    Om die drempel zo laag te houden, moeten sitebouwers zich wel een beetje aan de standaarden (html, css, …) en conventies (links zijn onderlijnd, elke pagina heeft zijn unieke URL zodat er kan gebookmarket en gelinkt worden, back-toets werkt, goeie navigatie en interne search …) houden. Wijk nooit af van webstandaarden en -conventies, zelfs niet als het nifty UI-alternatief van dat flashy webagency voor jou, doorwinterd webexpert die je bent, best eenvoudiger en vooral zo veel leuker lijkt.

    tip 4: laat je website volgens de regels van de kunst maken en hou het eenvoudig. Consistentie, eenvoud, usability, accessibility. Geloof me, ge kunt niet zonder en uw grootmoeder al zeker niet!

  9. Wie zoekt die surft (en surft en surft en …)
  10. Met die schier oneindige hoeveelheid aan gratis informatie zouden we niet veel zijn zonder tools om al die pagina’s makkelijk terug te vinden. Van Webcrawler en Lycos mid jaren ’90 over Altavista tot Google; search engines zijn de alfa en de omega van zowat elk internet-bezoek (bij hoeveel mensen zou een search-engine de homepage zijn?).
    Indien je wilt dat je site makkelijk te vinden is, zul je ervoor moeten zorgen dat de zoekrobotten van bv. Google je site makkelijk kunnen vinden en indexeren. En om goed geïndexeerd te kunnen worden, zul je ervoor moeten zorgen dat je site web-standaarden en -conventies volgt (zelfs niet als dat flashy webagency … ge weet wel).
    tip 5: Consistentie, eenvoud, usability, accessibility; ge kunt niet zonder en de Googles out there zeker niet! wees vriendelijk voor Google en de bezoekers zullen tot U komen.

Natuurlijk is dit lijstje niet volledig en vanzelfsprekend is er heel wat meer nodig om succesvol op het internet te ondernemen (een goed business-plan helpt). Maar als het op rauwe trafiek aankomt: zet gratis kwalitatieve informatie open en bloot voor iedereen online, zorg ervoor dat die volgens de standaarden en conventies ontsloten wordt en verwelkom search-engines met open armen. Hoe het geld dan moet binnenrollen, dat mag U zelf uitvissen.
Interessante links en inspiratie:

Stoute wordpress upgrade maakt posts van pages?

Outro_Spective had gisteren een probleempje met zijn upgrade naar de laatste versie van WordPress op animobrugge.be; alle pages waren plots posts.


De oplossing bleek gelukkig betrekkelijk eenvoudig: posts en pages worden beiden in de ‘wp_post’ tabel bijgehouden in de wordpress database. Als je van de verdwenen pages in kwestie het ‘post_type’ van ‘post’ naar ‘page’ verandert, is alles terug in orde. Volgend sql-statement doet dat in 1 klap:

UPDATE wp_posts SET post_type = ‘page’ WHERE ID IN (x,y,z)

met in de plaats van x,y en z de id`s (het nummer na p= of page_id= parameter in de url van je posts/ pages) van de posts die terug page moeten worden

Waarmee dat Jong Links Brugs geweld terug foutloos online staat en ze zich nu terug volop met de politiek kunnen bezighouden 🙂