Bij Het LeerLab verkennen we graag vernieuwende leeroplossingen. AI speelt een steeds grotere rol in Learning & Development, en Google’s LearnLM trekt momenteel veel aandacht als de nieuwste innovatie op dit gebied.
LearnLM is een AI-model dat is ontwikkeld voor opleidings- en onderwijsdoeleinden. In tegenstelling tot generieke taalmodellen zoals ChatGPT, is het specifiek getraind op leerwetenschappelijke principes. Volgens Google betekent dit dat het model beter aansluit bij hoe mensen leren en dat het AI-gestuurde leerondersteuning kan bieden op een effectievere manier dan standaard taalmodellen.
Hoewel LearnLM primair is ontworpen voor het onderwijs, delen onderwijs en L&D veel dezelfde uitdagingen, denk bijvoorbeeld aan gepersonaliseerd leren, effectieve feedback en kennisopbouw. Daarom onderzochten we of LearnLM ook voor L&D waardevol is als AI tool.
Google stelt dat LearnLM zich richt op drie belangrijke pijlers:
- Interactieve feedback → directe en gepersonaliseerde ondersteuning
- Kennisopbouw in context → geen losse feiten, maar gestructureerd leren
- Adaptieve didactiek → AI die zich aanpast aan leerdoelen en cognitieve belasting
Kortom, LearnLM is ontworpen om het leerproces te versterken. Dat klinkt veelbelovend. Maar hoe goed is dit model écht? Is het een revolutionaire doorbraak voor leren en ontwikkelen, of vooral slimme marketing? En hoe vertaalt het zich naar de praktijk van L&D? Biedt het daadwerkelijk meerwaarde?
Innovaties kun je pas echt beoordelen door ze in de praktijk te testen. Daarom hebben we LearnLM in ons LeerLab getest om te zien hoe het presteert binnen L&D. We voerden zes experimenten uit en vergeleken de resultaten met een generiek taalmodel: ChatGPT. Onze experimenten richtten zich op de volgende thema’s:
- Genereren van interactieve oefeningen
- Analyse van leermateriaal
- Personaliseren van leertrajecten
- Didactisch advies
- Evalueren van leerimpact
- AI-gestuurde leerinterventies
De resultaten? Die vonden wij zelf verrassend. Dit artikel neemt je mee in onze bevindingen.
Experiment 1: Genereren van interactieve oefenvragen
Test: Kan LearnLM, getraind op leerwetenschappelijke principes, interactieve oefenvragen genereren die specifieker aansluiten bij de leerdoelen dan een generiek taalmodel?
Wat we deden: We vroegen LearnLM om oefenvragen te genereren voor een marketingtraining, waarbij we als input de leerdoelen voor de training mee hebben gegeven.
Wat we zagen: LearnLM genereerde een brede variëteit aan oefenvormen: multiple choice, open vragen en simulaties, afgestemd op de leerdoelen. Het model gaf daarnaast instructies over hoe en wanneer de oefeningen konden worden ingezet, waardoor de didactische implementatie werd meegenomen.
Het verschil met een generiek taalmodel (ChatGPT): ChatGPT produceerde een set oefenvragen die zich eveneens richtten op de kernconcepten van de training, met een duidelijke link tussen de theorie en praktijk. De vragen waren overwegend korter en minder gevarieerd qua werkvorm. De nadruk lag vooral op kennisoverdracht en minder op interactieve toepassing.
Conclusie: Beide modellen produceerden oefenvragen die gericht waren op praktijkgericht leren binnen een marketingcontext. Kijkend naar onze testvraag, of LearnLM in staat is om oefenvragen te generen die specifieker aansluiten bij de leerdoelen dan een generiek taalmodel, dan is dit vanuit dit experiment niet eenduidig met ja of nee te beantwoorden:
- LearnLM biedt meer variatie in werkvormen en concretere instructies
- ChatGPT richt zich meer op een bredere theoretische basis en praktische toepassing
De keuze hangt dus af van wat het beste past bij de specifieke training en bij de deelnemers.
Een belangrijke observatie in dit experiment was dat de inputprompt relatief beperkt was. Meer contextuele input over de doelgroep en trainingsopzet had wellicht een verfijndere output opgeleverd. Hierdoor blijft de vraag open of de verschillen in output puur te wijten zijn aan de kernfunctionaliteit van de modellen, of meer aan de wijze waarop de input is gestructureerd.
Experiment 2: Analyse van leermateriaal
Test: Kan LearnLM feedback van hogere kwaliteit op leermateriaal leveren dan een generiek taalmodel?
Wat we deden:We hebben LearnLM ingezet om een hand-out van 5 pagina’s te analyseren en beoordelen.
Wat we zagen: LearnLM richtte zich vooral op het benadrukken van positieve aspecten en gaf slechts enkele (weliswaar goede) suggesties voor verbetering in de categorieën opbouw, inhoud en volledigheid. Deze feedback was kort, namelijk 6 regels, en weinig gedetailleerd.
Het verschil met een generiek taalmodel: ChatGPT gaf in dit experiment feedback op de categorieën taal en leesbaarheid, structuur en opbouw, didactische kwaliteit, inhoudelijke diepgang en praktische toepasbaarheid. De feedback was specifieker en uitgebreider en besloeg in totaal ongeveer 1 A4.
Conclusie: LearnLM gaf summiere, overwegend positieve feedback en richtte zich minder op concrete verbeteringen. ChatGPT bood een bredere, diepgaandere evaluatie.
- Voor snelle, algemene feedback: LearnLM volstaat.
- Voor een diepgaande inhoudelijke analyse: ChatGPT bleek hierin beter.
Hoewel LearnLM kort en beknopt bleef, was de gegeven feedback wel gericht op didactische kernprincipes zoals de opbouw en volledigheid van het leermateriaal. Dit sluit aan bij leerwetenschappelijke inzichten, maar door de beperkte mate van detail en nuance vonden we dit niet overtuigend beter dan een generiek taalmodel. In de huidige vorm bood ChatGPT uitgebreidere en concretere feedback, die voor L&D-professionals waarschijnlijk beter bruikbaar is.
Experiment 3: Personaliseren van leertrajecten
Test: Ontwerpt LearnLM op basis van een competentieprofiel kwalitatief betere leertrajecten dan een generiek taalmodel?
Wat we deden: We gaven LearnLM een fictief profiel van een medewerker en vroegen om een voorstel voor een leertraject. Het profiel was als volgt:
“Een marketingmedewerker met weinig ervaring in data-analyse, maar een sterke contentachtergrond. Hoe kan hij zich ontwikkelen?”
Wat we zagen: LearnLM bood een theoretisch onderbouwd en analytisch leerpad, met een sterke focus op fundamentele data-analyse en statistiek als een op zichzelf staand vakgebied. Het traject was gestructureerd in duidelijke fasen, waarbij de deelnemer eerst een solide basis legt voordat complexere toepassingen in de marketing aan bod komen.
Het verschil met een generiek taalmodel: ChatGPT kwam met een praktijkgericht leerpad, waarbij de nadruk lag op leren in de context van marketing. Dit traject richtte zich meer op “learning in the flow of work” → de marketingmedewerker leert door direct met data te werken binnen marketingcampagnes.
Conclusie: Beide trajecten, die van LearnLM en ChatGPT, hadden hetzelfde doel: het ontwikkelen van data-gedreven vaardigheden. Daarnaast deelden ze een aantal kenmerken, zoals een gestructureerde opbouw in fasen, een combinatie van theorie en praktijk, het gebruik van analytics-tools, mentorschap en een focus op continu leren.
Het belangrijkste verschil lag in de benadering. LearnLM bood een brede en diepgaande aanpak van data-analyse, terwijl het traject van ChatGPT praktijkgericht was binnen een marketingcontext.
Welke beter is? Dat hangt er vanaf:
- Voor snellere impact in een marketingomgeving sloot het traject van ChatGPT beter aan, omdat de medewerker direct waarde kon toevoegen aan contentmarketing en campagnes.
- Voor een bredere rol in data-analyse en business intelligence bood LearnLM meer verdieping en theoretische onderbouwing.
Er is dus geen absolute winnaar in dit experiment – de keuze hangt af van de specifieke leerbehoefte en context: een meer praktijkgerichte aanpak of juist meer theoretisch.
Experiment 4: Didactisch advies
Test: Kan LearnLM in vergelijking met een generiek taalmodel beter onderbouwd didactisch advies geven voor trainingsontwerpen?
Wat we deden: We vroegen beide AI-modellen: “Ik wil een training maken over effectieve communicatie. Wat is de beste leermethode?”
Wat we zagen: Beide AI’s benadrukten dat de keuze van de leermethode afhankelijk is van verschillende factoren, zoals leerdoelen, doelgroep en context. Ze adviseerden allebei een actieve, ervaringsgerichte aanpak en benoemden simulaties, rollenspellen en casestudy’s als effectieve werkvormen. Het belang van feedback en reflectie wordt bij beide genoemd, evenals digitale tools en gamification als ondersteunende middelen.
Het verschil met een generiek taalmodel: LearnLM bood een wat uitgebreidere, didactische onderbouwing en behandelde de methoden meer in detail, inclusief diverse randvoorwaarden. De reactie van ChatGPT was wat beknopter en meer praktijkgericht. De methoden werden direct gekoppeld aan hun toepassing in de training.
Conclusie: LearnLM bleek in dit experiment wat sterker te presteren, doordat het een uitgebreidere en didactisch onderbouwde respons gaf. LearnLM bood niet alleen een reeks effectieve werkvormen, maar ging ook dieper in op de randvoorwaarden en contextuele factoren, wat daardoor meer inzicht gaf in de onderliggende principes van de trainingsontwerpen. Dit kan je als gebruiker helpen om beter te begrijpen waarom bepaalde methoden effectief zijn en hoe je dit kan afstemmen op specifieke leerdoelen en doelgroepen.
ChatGPT gaf een kortere, meer direct toepasbare respons, waarbij de adviezen vooral gericht waren op de praktische toepassing in de training. Dit kan aantrekkelijk zijn voor situaties waarin je als gebruiker op zoek bent naar concrete aanbevelingen die direct toepasbaar zijn.
- Voor diepgaand onderbouwd didactisch advies: LearnLM bood meer context.
- Voor direct bruikbare aanbevelingen: ChatGPT was praktijkgerichter.
Een belangrijk aandachtspunt is dat de gebruikte inputprompt relatief open was en geen gedetailleerde informatie bevatte over het type training en de doelgroep. Het is aannemelijk dat een uitgebreidere prompt met meer context zou leiden tot nog verfijndere en mogelijk andere adviezen, zowel bij LearnLM als bij ChatGPT.
Experiment 5: Evalueren van leerimpact
Test: Kan LearnLM betere meetbare evaluatiecriteria voor trainingen opstellen dan een generiek taalmodel?
Wat we deden: We vroegen beide AI-modellen: “Hoe kan ik meten of een e-learning over leiderschap effectief was?”
Wat we zagen:
- Beide hanteren een gestructureerde aanpak voor het meten van effectiviteit, met meerdere evaluatieniveaus
- Beide gebruiken het Kirkpatrick-model als leidraad
- ChatGPT gaf een overzicht van directe meetinstrumenten en KPI’s.
- LearnLM bood een uitgebreidere onderbouwing, met meer focus op kwalitatieve evaluatiemethoden zoals focusgroepen, observaties en 360-graden feedback.
Het verschil met een generiek taalmodel: De versie van ChatGPT was korter en praktischer, terwijl die van LearnLM uitgebreider en gedetailleerder was. ChatGPT gaf een gestructureerd overzicht van evaluatiemethoden, terwijl LearnLM dieper inging op hoe en waarom elke methode werkt. ChatGPT benoemde expliciet het Kirkpatrick-model als leidraad, terwijl LearnLM de principes ervan gebruikt zonder deze expliciet te noemen. LearnLM richtte zich sterker op kwalitatieve evaluatie en dataverzameling, terwijl ChatGPT meer direct toepasbare KPI’s en meetinstrumenten bood.
Conclusie: Uit dit experiment beek dat zowel LearnLM als ChatGPT een gestructureerde aanpak hanteren voor het meten van de effectiviteit van een e-learning, waarbij ze beide meerdere evaluatieniveaus toepassen. Beide modellen maken gebruik van het Kirkpatrick-model als leidraad, al werd dit expliciet benoemd door ChatGPT en impliciet toegepast door LearnLM.
Het belangrijkste verschil ligt in de presentatie en focus van de evaluatiemethoden. ChatGPT bood een kortere, meer praktijkgerichte samenvatting, met een overzichtelijke weergave van meetinstrumenten en KPI’s. LearnLM gaf een uitgebreidere en diepgaandere analyse, waarbij meer nadruk lag op de achterliggende principes en kwalitatieve evaluatiemethoden, zoals focusgroepen en interviews.
Welke benadering het meest geschikt is, hangt af van de doelstelling van de evaluatie. Voor een snelle, direct toepasbare evaluatiemethode lijkt de aanpak van ChatGPT beter geschikt. Voor een meer diepgaande, kwalitatieve analyse en onderbouwing komt LearnLM sterker uit de bus.
Maar wat we tenslotte belangrijk vinden in dit experiment: is de output van beide modellen geschikt voor wetenschappelijk onderbouwde learning evaluation?
- Voor een praktijkgerichte evidence-based evaluatie? Ja. Beide bieden gestructureerde, toepasbare evaluatiemethoden die gebaseerd zijn op bewezen modellen.
- Voor een diepgaand wetenschappelijk onderbouwde learning evaluation? Niet volledig. Beide missen statistische analyses, experimentele validatie en geavanceerde learning analytics.
Experiment 6: AI-gestuurde leerinterventies
Test: Kan LearnLM, in vergelijking met een generiek taalmodel, betere leerinterventies voorstellen?
Wat we deden: We vroegen beide AI-modellen: “Werknemers vinden het lastig om nieuwe software snel onder de knie te krijgen. Welke leerinterventies zijn effectief?”
Wat we zagen:
- Beide modellen adviseerden een blended learning-aanpak, met een combinatie van performance support (bijv. interactieve walkthroughs, FAQ’s), praktijkgerichte workshops en simulaties.
- ChatGPT richtte zich op snelle implementatie, met een focus op learning in the flow of work en laagdrempelige ondersteuning.
- LearnLM bood een meer strategische aanpak, inclusief een gedetailleerde behoeftenanalyse en differentiatie op basis van leerstijlen en functieniveaus.
Het verschil met een generiek taalmodel: ChatGPT’s aanpak is korter en meer praktijkgericht, terwijl LearnLM uitgebreider en strategischer is. ChatGPT legt de nadruk op ‘learning in the flow of work’, met directe ondersteuning zoals interactieve walkthroughs en AI-tools, terwijl LearnLM meer focust op voorbereiding en implementatie.
LearnLM bevat een uitgebreide behoeftenanalyse en communicatiestrategie, terwijl ChatGPT sneller toepasbare leerinterventies biedt. Personalisatie en differentiatie worden in LearnLM uitgebreider behandeld, waarbij aandacht wordt besteed aan verschillende leerstijlen en functieniveaus.
ChatGPT richt zich meer op directe toepassing en nudging, terwijl LearnLM sterker is in voorafgaande strategie en aanpassing per doelgroep. Feedback en evaluatie komen in beide voor, maar ChatGPT benoemt learning analytics en KPI’s, terwijl LearnLM meer nadruk legt op focusgroepen en kwalitatieve feedback.
Conclusie: Uit dit experiment blijkt dat zowel ChatGPT als LearnLM effectieve leeroplossingen kunnen voorstellen, maar met een verschillende focus. ChatGPT biedt praktijkgerichte interventies die direct toepasbaar zijn, terwijl LearnLM een diepgaandere, strategische aanpak hanteert met meer aandacht voor voorbereiding en doelgroep differentiatie.
Welke AI beter presteert, hangt af van het doel: voor directe implementatie en learning in the flow of work is ChatGPT geschikter, terwijl LearnLM beter is voor uitgebreide leerstrategieën en gepersonaliseerde aanpakken:
- Voor snelle, direct toepasbare leerinterventies: ChatGPT biedt een hands-on benadering met concrete suggesties.
- Voor een diepere, strategische leeroplossing: LearnLM is sterker, doordat het model beter inspeelt op doelgroepanalyse en differentiatie.
Onderstaand een schematisch overzicht van de belangrijkste bevindingen uit onze experimenten:
Conclusie: de meerwaarde en beperkingen van LearnLM voor L&D-professionals
Uit onze zes experimenten blijkt dat LearnLM absoluut mogelijkheden biedt voor L&D, maar dat de daadwérkelijke meerwaarde ten opzichte van een generiek taalmodel zoals ChatGPT sterk afhankelijk is van de toepassing en context. Omdat LearnLM specifiek getraind is op leerwetenschappelijke principes, zou je verwachten dat het model beter aansluit bij bewezen didactische methoden en onderbouwde adviezen geeft.
De experimenten laten echter een genuanceerd beeld zien: LearnLM toont in bepaalde taken een diepere theoretische onderbouwing, terwijl het in andere gevallen niet per se beter presteert dan een generiek taalmodel.
- In experimenten gericht op het genereren van interactieve oefeningen en gepersonaliseerde leertrajecten bood LearnLM meer variatie in werkvormen en een bredere theoretische basis. Dit sluit aan bij leerwetenschappelijke inzichten over effectieve leerstrategieën en maatwerk in trainingen. ChatGPT daarentegen gaf meer praktijkgerichte en direct toepasbare suggesties, wat in sommige situaties juist beter aansluit bij de behoeften van lerenden.
- Bij de analyse van leermateriaal en het geven van didactisch advies gaf LearnLM kortere, meer samenvattende feedback dan verwacht. De suggesties waren relevant, maar veel minder uitgebreid en gedetailleerd dan die van ChatGPT, dat een bredere evaluatie gaf op taal, structuur en inhoud. Dit roept de vraag op in hoeverre LearnLM zijn leerwetenschappelijke basis optimaal benut en of een generiek taalmodel dit niet net zo goed of soms dus ook zelfs beter kan.
- Op het gebied van leerinterventies en evaluatie van leerimpact kwam LearnLM sterker naar voren in strategische en kwalitatieve benaderingen, zoals focusgroepen en observerend leren. Dit past bij wetenschappelijke modellen waarin formatieve evaluatie en continue verbetering centraal staan. Tegelijkertijd bood ChatGPT kortere, maar praktisch toepasbare adviezen met expliciete verwijzing naar bekende frameworks zoals het Kirkpatrick-model. Opvallend was dat LearnLM deze principes wel toepaste, maar niet benoemde, wat de interpretatie van de onderbouwing wat lastiger maakte.
Technische beperkingen, bias en transparantie
LearnLM is nog een relatief nieuw model en volop in ontwikkeling. Google erkent zelf dat er mogelijk nog ‘bugs’ en technische beperkingen optreden. Ook tijdens onze experimenten liepen we hier regelmatig tegenaan: naarmate een taak complexer of langer werd, liep het model soms vast, waardoor we het programma opnieuw moesten starten. ChatGPT bleek in onze experimenten stabieler en voelt daardoor als een meer volwassen AI-tool.
Daarnaast viel op dat de Nederlandse vertaling van LearnLM niet altijd accuraat was. Zinnen en woorden waren soms te letterlijk vanuit het Engels vertaald, wat ten koste ging van de leesbaarheid en begrijpelijkheid.
Een belangrijk aandachtspunt is de transparantie van LearnLM. Omdat Google weinig inzicht geeft in hoe het model beslissingen neemt en welke datasets er zijn gebruikt, is het lastig te beoordelen in hoeverre de output écht evidence-based is. Voor de gebruiker betekent dit dat kritisch blijven dus essentieel is, net als bij ieder AI model overigens.
Daarnaast is bias een belangrijk aandachtspunt. AI-modellen zoals LearnLM baseren hun output op enorme datasets, maar als deze voornamelijk afkomstig zijn uit westerse onderwijsmodellen, kan dit leiden tot een eenzijdige focus. Dit kan zich uiten in:
- Voorkeur voor bepaalde onderwijsmethoden: Bijvoorbeeld een nadruk op gestandaardiseerde toetsing en formeel leren, terwijl andere onderwijsvormen zoals projectgericht of informeel leren onderbelicht blijven.
- Beperkte inclusiviteit: AI-modellen kunnen bepaalde leerstrategieën of culturele perspectieven minder goed vertegenwoordigen, afhankelijk van de trainingsdata. Dit kan een impact hebben op de manier waarop leerinhoud wordt gestructureerd en gepresenteerd.
Bovendien toonde een klein nevenexperiment dat we nog deden aan dat AI-modellen zichzelf ook niet altijd neutraal beoordelen. LearnLM presenteerde zichzelf met overdreven positieve claims toen we vroegen wat de verwachtte uitkomst van de experimenten zou zijn, terwijl ChatGPT genuanceerder reageerde. Dit onderstreept dat AI-tools gevoelig zijn voor bias – zelfs in hoe ze hun eigen prestaties inschatten.
De rol van input: het belang van de prompt
Een andere belangrijke bevinding uit onze experimenten is dat de output van AI staat of valt met de input. Hoe specifieker en gedetailleerder de prompt—denk aan leerdoelen, doelgroep en trainingsopzet—hoe beter de gegenereerde inhoud aansluit op de leercontext. Dit geldt voor zowel LearnLM als ChatGPT.
Dit benadrukt dat de kracht van AI niet alleen ligt in het model zelf, maar ook in hoe goed je er als gebruiker mee omgaat. ‘Prompt engineering’ wordt daarom een steeds belangrijkere vaardigheid. Wil je de beste output? Dan loont het om te experimenteren met hoe je je vragen formuleert.
Wat betekent dit voor L&D-professionals?
LearnLM liet op sommige gebieden voordelen zien, met name in taken die een strategische, onderbouwde aanpak vereisen, zoals leerinterventies en de ontwikkeling van leerpaden. Voor taken die praktische, direct toepasbare leermiddelen of feedback vereisen, presteerde ChatGPT in sommige gevallen even goed of zelfs beter.
Dit betekent dat je je keuze voor een AI-tool het beste afstemt op de specifieke behoefte en doelen:
- Voor strategische leerinterventies en ontwikkeling van leerpaden: LearnLM biedt meerwaarde
- Voor direct toepasbare, praktijkgerichte output: ChatGPT levert in sommige gevallen even effectieve, zo niet betere, resultaten.
Kortom, LearnLM biedt interessante mogelijkheden voor L&D, maar roept tegelijkertijd ook vragen op over de daadwerkelijke meerwaarde ten opzichte van een generiek taalmodel.
We zijn erg benieuwd naar jullie mening over de ontwikkelingen rondom AI in L&D, en in het bijzonder natuurlijk LearnLM. Wat zijn jullie ervaringen?


