Experimenteren: van hypothese naar een bewezen backlog
Hoe je product ideeën valideert voordat je ze bouwt
Je hebt het probleem scherp gedefinieerd, verschillende oplossingsrichtingen verkend en via Product Discovery een aantal veelbelovende ideeën gevalideerd. Maar nu komt de cruciale vraag: hoe bewijs je dat deze ideeën daadwerkelijk werken voordat je er maanden ontwikkelwerk in steekt?
Hier komt experimenteren om de hoek kijken. Waar discovery draait om het vinden van de juiste problemen en oplossingen, gaat experimenteren over het systematisch bewijzen dat je oplossingen ook echt impact hebben. Het is het verschil tussen “dit lijkt een goed idee” en “we hebben bewezen dat dit werkt.”
Marty Cagan benadrukt in “Inspired” dat de beste product teams niet alleen snel kunnen bouwen, maar vooral snel kunnen leren. Experimenteren is de motor achter dat leren.
Het experimenteer-mindset: van perfecte plannen naar leren door testen
Traditionele product development werkt vaak vanuit de aanname dat een grondige analyse vooraf tot het juiste product leidt. Je schrijft specificaties, plant releases en verwacht dat de markt enthousiast reageert. Maar de praktijk is weerbarstiger: zelfs met uitgebreide discovery blijven er onzekerheden bestaan over gebruikersgedrag, adoptie en daadwerkelijke waardecreatie.
Een experimenteermindset erkent deze onzekerheid en omarmt het. In plaats van te proberen alles vooraf perfect uit te denken, formuleer je expliciete hypotheses over wat je gelooft dat waar is. Vervolgens ontwerp je de goedkoopst mogelijke test om die hypotheses te valideren of te verwerpen.
Dit betekent een mentale verschuiving:
Van “we weten dat dit werkt” naar “we geloven dat dit werkt, laten we het bewijzen”
Van “falen is slecht” naar “falen is data - en vroeg falen is goedkoper dan laat falen”
Van “build first, learn later” naar “learn first, then build”
Het mooie van experimenteren is dat je niet per se hoeft te “falen” om te slagen. Soms bevestigen experimenten je verwachtingen, soms leiden ze tot onverwachte inzichten, en soms tonen ze aan dat een idee niet werkt. In alle gevallen leer je iets waardevols tegen relatief lage kosten.
De experimenteerhiërarchie: van goedkoop naar kostbaar
Niet alle experimenten zijn even intensief of kostbaar. Door systematisch te beginnen met de goedkoopste vormen van validatie, bouw je evidence op zonder onnodige risico’s te nemen. Hier is de hiërarchie die ik handhaal:
Laag 1: Desk Research en Data-Analyse
Voor je complexe experimenten opzet, kan bestaande data al veel vertellen. Analyseer je huidige product metrics, bekijk gebruikersgedrag in analytics tools, en onderzoek wat vergelijkbare bedrijven hebben ontdekt.
Praktijkvoorbeeld: Voor een nieuwe checkout-flow kun je eerst analyseren waar gebruikers nu afhaken, welke foutmeldingen het vaakst voorkomen, en hoe vergelijkbare e-commerce sites het aanpakken.
Tijdsinvestering: Dagen
Kosten: Alleen je tijd
Betrouwbaarheid: Matig tot hoog voor richtinggevend inzicht
Laag 2: Prototypes en gebruikerstests
Met eenvoudige prototypes - van papieren schetsen tot klikkbare mockups - kun je snel concepten toetsen bij potentiële gebruikers. Tools zoals Figma, InVision of zelfs PowerPoint zijn hiervoor toereikend.
Praktijkvoorbeeld: Een klikkbaar prototype van een nieuwe feature laten testen door 5-8 gebruikers geeft je al waardevolle inzichten over usability en begrip.
Tijdsinvestering: Weken
Kosten: Design tijd + kleine vergoeding testpersonen
Betrouwbaarheid: Hoog voor usability, matig voor adoptie-intentie
Laag 3: Landing pages en smoke tests
Test interesse en bereidheid tot actie door een landing page te maken voor een nog niet bestaande feature of product. Meet hoeveel mensen zich aanmelden, doorklikkken, of interesse tonen.
Praktijkvoorbeeld: Voor een nieuwe premium feature maak je een landingspagina die de voordelen uitlegt en meet hoeveel bestaande klanten zich aanmelden voor early access.
Tijdsinvestering: Weken
Kosten: Design, development en marketing budget
Betrouwbaarheid: Hoog voor interesse, matig voor daadwerkelijk gebruik
Laag 4: MVP’s en feature flags
Bouw een minimale werkende versie en rol deze uit naar een beperkte groep gebruikers. Feature flags maken het mogelijk om functionaliteit aan en uit te zetten zonder nieuwe releases.
Praktijkvoorbeeld: Een eenvoudige versie van een aanbevelingsalgoritme uitrollen naar 10% van je gebruikers en vergelijken met de controlegroep.
Tijdsinvestering: Maanden
Kosten: Ontwikkelwerk + infrastructuur
Betrouwbaarheid: Zeer hoog voor werkelijk gedrag
Laag 5: A/B tests in productie (impact meting)
De meest betrouwbare vorm van experimenteren: vergelijk verschillende versies van je product direct in de live omgeving met willekeurig toegewezen gebruikersgroepen.
Praktijkvoorbeeld: Twee verschillende onboarding-flows tegelijkertijd draaien en meten welke tot betere activatie leidt.
Tijdsinvestering: Maanden
Kosten: Volledige ontwikkelcapaciteit + testing infrastructure
Betrouwbaarheid: Zeer hoog voor business impact
Het principe is simpel: begin altijd bij laag 1 en werk omhoog totdat je voldoende zekerheid hebt om verder te investeren. Soms is een desk research genoeg om een idee te verwerpen, soms heb je een volledig A/B test nodig om impact te bewijzen.
Hypotheses formuleren die écht helpen
Een goede hypothese is het fundament van elk succesvol experiment. Zonder heldere hypothese weet je niet wat je test, wat je meet, en wanneer je klaar bent met experimenteren.
De formule die ik handhaal is:
“We geloven dat [specifieke doelgroep] [specifiek probleem/behoefte heeft]. Door [onze oplossing] te implementeren, verwachten we dat [meetbare gedragsverandering] zal optreden, wat resulteert in [business impact].”
Voorbeelden van slechte vs. goede hypotheses:
Slecht: “Gebruikers willen een snellere checkout” Goed: “We geloven dat bestaande klanten die meer dan 3 items in hun winkelwagen hebben, gefrustreerd raken door het huidige 4-stap checkout proces. Door dit terug te brengen naar 2 stappen verwachten we dat de checkout completion rate stijgt van 73% naar 85%, wat resulteert in €50k extra maandelijkse omzet.”
Slecht: “Een dashboard zou handig zijn”
Goed: “We geloven dat account managers die meer dan 5 klanten beheren, wekelijks te veel tijd kwijt zijn aan het handmatig verzamelen van performance data. Door een geautomatiseerd dashboard te bieden verwachten we dat zij 3+ uur per week besparen, wat leidt tot 25% hogere klanttevredenheidsscores.”
Notice het verschil: goede hypotheses zijn specifiek over de doelgroep, het probleem, de oplossing én de verwachte impact. Ze geven richting aan wat je moet meten en maken duidelijk wanneer het experiment slaagt of faalt.
Van aannames naar hypotheses
Tijdens je Product Discovery heb je waarschijnlijk verschillende aannames geïdentificeerd. Experimenteren begint met het omzetten van die aannames naar toetsbare hypotheses.
Aanname: “Klanten willen meer personalisatie” Hypothese: “We geloven dat klanten die meer dan 10 aankopen hebben gedaan, relevantere productaanbevelingen willen zien. Door machine learning-gedreven aanbevelingen te tonen in plaats van generieke bestsellers, verwachten we dat de click-through rate stijgt van 2,1% naar 4,5% en de conversie met 15% toeneemt.”
Experimentontwerp: maximaal leren, minimale kosten
Een goed experiment geeft je het meeste inzicht tegen de laagste kosten en in de kortste tijd. Dit vereist doordacht ontwerp.
Het kleinste experiment dat je hypothese kan testen
Stel je wilt testen of een nieuwe feature daadwerkelijk gebruikt zal worden. In plaats van de hele feature te bouwen, kun je:
Fake door test: Plaats een knop voor de feature in je interface. Meet hoeveel mensen erop klikken. Toon een “coming soon” bericht met mogelijkheid tot aanmelding.
Wizard of Oz: Simuleer de feature-ervaring handmatig achter de schermen terwijl gebruikers denken dat het geautomatiseerd is.
Concierge test: Bied de service handmatig aan aan een kleine groep klanten en meet hun enthousiasme en gebruik.


