AI/ML Fundamentals voor Product Owners en Product Managers
Wat elke Product Owner en Product Manager moet weten over AI en machine learning
Wie vandaag de dag in productmanagement werkt, ontkomt niet meer aan AI. Je hoeft geen code te schrijven of de LLMs te trainen, maar zonder begrip van de basis mis je grip op de mogelijkheden en de valkuilen. Dit stuk is bedoeld om je een stevige basis te geven.

Van AI naar ML naar Deep Learning
Laten we beginnen met de hiërarchie. Artificial Intelligence (AI) is de breedste term. Het vakgebied bestaat al sinds de jaren 50 en gaat over systemen die taken uitvoeren die wij als “intelligent” zien: redeneren, plannen, leren of beslissingen nemen. Dat kan op allerlei manieren, ook zonder data. Denk aan regelgebaseerde systemen of expert systems uit de jaren 80, die beslissingen namen op basis van “als dit, dan dat”-regels.
Machine Learning (ML) is een subset binnen AI. Het verschuift de focus van regels programmeren naar leren uit data. In plaats van alle kennis van tevoren in te bouwen, laat je een algoritme patronen ontdekken in grote hoeveelheden voorbeelden. Een klassiek voorbeeld: een spamfilter dat duizenden e-mails krijgt met het label “spam” of “geen spam” en zelf leert welke woorden, afzenders of patronen het verschil maken.
Deep Learning (DL) is weer een subset van machine learning. Het gebruikt diepe neurale netwerken, bestaande uit vele lagen van kunstmatige “neuronen”, die zeer complexe patronen kunnen herkennen. Deep learning is de motor achter moderne toepassingen als spraakherkenning, beeldclassificatie, zelfrijdende auto’s en de huidige generatie taalmodellen zoals GPT en Claude.
Hoe machine learning werkt
Een ML-model draait in essentie om drie bouwstenen: data, features en een algoritme.
Data is de brandstof. Zonder voldoende en kwalitatieve data komt er niets bruikbaars uit.
Features zijn de variabelen waarop een model leert. Bij huizenprijzen zijn dat bijvoorbeeld oppervlakte, locatie en bouwjaar. Het kiezen en bewerken van de juiste features, feature engineering genoemd, kan het verschil maken tussen een nuttig en een waardeloos model.
Het algoritme leert relaties tussen die features en de gewenste uitkomst. Tijdens het trainen vergelijkt het model zijn voorspellingen met de werkelijkheid via een loss function (hoe ver zat ik ernaast?) en verbetert zichzelf stap voor stap met een optimizer.
Daarna komt inference: het toepassen van dat geleerde op nieuwe data, zoals een onbekend huis waarvan je de prijs wilt voorspellen.
Vormen van leren
Niet elk model leert op dezelfde manier. Er zijn verschillende leervormen:
Supervised learning: het model leert van gelabelde voorbeelden. Denk aan foto’s die gemarkeerd zijn als “kat” of “hond”. Het model probeert die labels te voorspellen voor nieuwe foto’s.
Unsupervised learning: er zijn geen labels. Het model zoekt zelf patronen of structuren, bijvoorbeeld klantsegmentatie op basis van koopgedrag.
Reinforcement learning: een agent leert door beloningen en straffen. Een AI die een game leert spelen krijgt punten voor goede zetten en leert daardoor strategieën.
Self-supervised learning: een moderne variant die cruciaal is voor LLM’s. Hierbij leert het model door ontbrekende stukken in data te voorspellen, zoals ontbrekende woorden in een zin.
Van klassieke modellen naar moderne architecturen
Machine learning kent een breed scala aan modellen. Klassieke methodes zoals decision trees en random forests zijn relatief eenvoudig en vaak goed uitlegbaar. Ze werken prima voor veel praktische businesscases.
Met de opkomst van neurale netwerken kwam daar een nieuwe generatie bij:
Convolutional Neural Networks (CNN’s): ontworpen voor beeldherkenning, met grote successen in computer vision.
Recurrent Neural Networks (RNN’s): gericht op sequenties zoals tekst of spraak, maar grotendeels vervangen door Transformers.
Transformers: geïntroduceerd in 2017 en nu de dominante architectuur achter taalmodellen. Ze zijn schaalbaar, krachtig en in staat lange-afstandsrelaties in tekst te begrijpen.
Moderne AI-modellen
Op deze fundamenten zijn de modellen gebouwd die je nu overal ziet terugkomen:
Large Language Models (LLM’s) zoals GPT of Claude. Ze zijn getraind op miljarden tokens tekst en kunnen mensachtige antwoorden genereren.
Small Language Models (SLM’s): lichtere, domeinspecifieke varianten die minder rekenkracht nodig hebben en daardoor efficiënter inzetbaar zijn.
Mixture of Experts (MoE): modellen die bestaan uit meerdere “expertnetwerken” waarvan er telkens maar een paar tegelijk actief zijn. Dat maakt ze schaalbaar en relatief efficiënt.
Multimodale modellen: systemen die meerdere soorten data tegelijk verwerken, zoals tekst, beeld en audio.
Belangrijke technieken en bouwstenen
Enkele kernbegrippen die steeds terugkomen:
Regularisatie: technieken die voorkomen dat een model te veel leert van ruis in de trainingsdata.
Transfer learning: een bestaand model hergebruiken in een nieuwe context, vaak met veel minder data en tijd.
Fine-tuning: het verfijnen van een model zodat het beter aansluit bij een specifieke toepassing.
RAG (Retrieval-Augmented Generation): een methode om een taalmodel actuele of domeinspecifieke kennis te geven door het te koppelen aan externe databases of documenten.
Uitdagingen en randvoorwaarden
AI/ML is krachtig, maar zeker geen magische oplossing. Enkele grote uitdagingen zijn:
Data-kwaliteit: slechte of scheve data leidt onvermijdelijk tot slechte uitkomsten.
Bias: modellen nemen bestaande vooroordelen uit hun trainingsdata over.
Explainability: complexe modellen zijn vaak black boxes, terwijl stakeholders en regelgeving steeds meer transparantie vereisen.
Kosten en schaalbaarheid: trainen en draaien van grote modellen kan extreem duur zijn.
Ethiek en regulering: in Europa legt de AI Act stevige eisen op aan transparantie, risico-indeling en verantwoord gebruik.
De kernboodschap
Alles grijpt in elkaar: data voedt modellen, modellen gebruiken verschillende leervormen en architecturen, en nieuwe technieken verschuiven telkens de grenzen. Voor jou als Product Owner of Product Manager is het belangrijkste niet de technische details van de algoritmes, maar het begrijpen van dit grotere ecosysteem. Dat geeft je het vermogen om de hype van de realiteit te scheiden, betere gesprekken te voeren met engineers en de juiste keuzes te maken voor product en roadmap.
👉 In de volgende stap van deze serie gaan we in op Prompt Engineering: hoe je AI niet alleen begrijpt, maar ook effectief aanstuurt en inzet in je werk.

