Nieuw ICT-onderwijs door AI (3/3)

Besluitvorming: AI als leermiddel in plaats van als butler

Nieuw ICT-onderwijs door AI (3/3)

In dit drieluik verken ik hoe ICT-onderwijs moet veranderen met de komst van AI. Dit derde deel gaat over besluitvorming: hoe zorgen we dat studenten AI gebruiken als leermiddel, niet als vervanging van leren?

Terug naar: Blog 1/3 (Bewustwording) Blog 2/3 (Oordeelsvorming)

Drieluik structuur (BOB-model):

  • Blog 1/3 (Bewustwording): De komst van AI en evolutie van interactiemodi
  • Blog 2/3 (Oordeelsvorming): Taxonomie van AI-gebruik: wie heeft de regie?
  • Blog 3/3 (Besluitvorming): AI als leermiddel, niet als butler - deze blog

Deze blog begint met het verificatieprobleem: hoe weten begeleiders of studenten AI verantwoord gebruiken? Vervolgens waarschuw ik studenten voor de expertise-valkuil: zonder basiskennis kun je AI-output niet beoordelen. Dan bespreek ik drie concrete toetsvormen die passen bij het AI-tijdperk. Sectie 4 introduceert “student in regie”: hoe studenten flexibel moeten schakelen tussen types, met een concreet advies voor jaar 2. Ik sluit af met het besluit dat AI een leermiddel moet zijn, geen butler.

1. Het verificatieprobleem voor begeleiders

De vorige keer introduceerde ik verschillende types van AI gebruik, en welke (grofweg) gewenst was en welke niet gewenst: type 1: niet vibe-coden (type 3), soms ook type 4: geen AI, of AI alleen als trainer, maar daarna ‘zelf doen’.

Maar hoe weet je als docent of bedrijfsbegeleider hoe een student AI daadwerkelijk heeft gebruikt? Je kunt niet in iemands hoofd kijken of de chat history controleren. Een student kan beweren zelf na te denken en AI alleen als hulpmiddel te gebruiken, terwijl in werkelijkheid alles blind wordt overgenomen zonder begrip.

Dit vraagt om andere toetsvormen — zie sectie 3 voor de concrete aanpak met mondelinge assessments en theorietoetsen.

2. Waarschuwing voor studenten: De expertise-valkuil

Als je nog bezig bent met leren programmeren, is de taxonomie niet alleen een beschrijving van werkwijzen — het is een waarschuwing. Type 1, 2 en 3 vereisen allemaal dat je de AI-output kunt beoordelen. En daar zit het probleem: studenten hebben nog niet de expertise om AI-hallucinaties te herkennen. Voor een diepere uitwerking van dit punt met Tiulkanov’s flowchart: zie blog 1, sectie 7.

Subsecties 2.1-2.5 beschrijven het verificatieprobleem, waarom je zonder AI moet beginnen, geven een multi-criteria evaluatie van AI-types, leggen de verificatie-inspanning paradox uit, en verklaren waarom codekwaliteit geen criterium is.

Software Development lifecycle/loop: Plan → Design → Code → Test → Deploy → Operations → Feedback Figuur 1: Software Development lifecycle/loop: Plan → Design → Code → Test → Deploy → Operations → Feedback (Kam, 2025)

2.1 Het verificatieprobleem

Bij Type 1-3 moet je alle AI-output verifiëren. Maar waartegen? Ervaren ontwikkelaars hebben mentale modellen van hoe dingen werken. Studenten moeten terugvallen op:

  • Officiële documentatie — maar die is vaak te technisch of te abstract
  • Gerenommeerde leerboeken — maar die behandelen misschien niet de specifieke library of framework
  • Docenten en begeleiders — de meest betrouwbare optie, maar niet schaalbaar

En hier is de valkuil: je kunt niet een tweede AI-tool gebruiken om de eerste te verifiëren. Dat is cirkelredeneren. Als je ChatGPT’s Python-code laat checken door Claude, heb je twee onbetrouwbare bronnen in plaats van één.

2.2 Start zonder AI: Bouw eerst je fundament

Mijn advies voor studenten: begin met Type 4a (Old Skool) totdat je de basis beheerst. Leer eerst handmatig:

  • Hoe een for-loop werkt
  • Waarom je een functie split
  • Wat scope betekent
  • Hoe je debugt zonder AI

Pas als je deze concepten beheerst, kun je veilig naar Type 4c (Learned from AI) of Type 1-3 (AI genereert code). Maar realiseer: je bent verantwoordelijk voor code die je niet volledig begrijpt.

T-shaped AI-enhanced developer skills Figuur 1: T-shaped AI-enhanced developer skills (Kam, 2025).

Dit T-shaped model uit Google’s onderzoek visualiseert wat studenten nodig hebben (Kam, 2025). De verticale balk (“Core Software Engineering”) is je fundament. De horizontale balk bovenaan (“GenAI Usage”) is een aanvulling die je later leert.

Als student moet je eerst de verticale balk opbouwen voordat je de horizontale balk kunt dragen. Zonder die basis zak je door.

2.3 Multi-criteria evaluatie voor studenten

Om de verschillende AI-gebruikstypes objectief te vergelijken voor lerende ICT-studenten, gebruik ik een multi-criteria beslissingstabel. Deze methode komt uit de ICT Research Methods (HBO-i, 2018), categorie Workshop: “to explore opportunities and gain insights in what is possible.”

Legenda scores:

Score Betekenis Voorbeeld
++ Zeer positief Maximaal leerpotentieel, geen risico
+ Positief Goed, met kleine kanttekening
0 Neutraal Niet van toepassing of geen effect
- Negatief Risico of nadeel aanwezig
-- Zeer negatief Groot risico, niet geschikt voor studenten

Ik evalueer acht criteria:

Criterium Human Leads Human Curates Vibe Coding Old Skool Rubber Duck Learned from AI
1. Productiviteit + + ++ 0 0 +
2. Leercurve - ++ 0 0 +
3. Hallucinatie-risico - - ++ ++ +
4. Menselijke controle ++ + ++ ++ ++
5. Verificatie-inspanning 0 0 -
6. Leerpotentieel 0 + ++ ++ +
7. Begrip eigen werk - - ++ ++ +
8. Tech schuld risico - 0 0 0 0

Belangrijkste inzichten:

Type 1-3 (AI genereert code):

  • Hoge productiviteit (++ voor Type 3), maar tegen hoge prijs
  • Verificatie-inspanning is -- voor studenten: je moet alles checken maar mist de expertise
  • Leerpotentieel en begrip zijn negatief: je leert weinig van code die je niet begrijpt
  • Type 3 scoort overal negatief behalve op snelheid - dit is “vibe coding” zonder vangnet

Type 4a (Old Skool):

  • Maximaal leerpotentieel (++) en begrip (++)
  • Geen hallucinatie-risico, geen verificatie-inspanning
  • Neutrale productiviteit - niet snel, maar ook niet langzaam als je de basis kent

Type 4b (Rubber Duck AI):

  • Veilig voor studenten: geen hallucinatie-risico (++)
  • Je gebruikt AI alleen als klankbord, niet voor inhoud
  • Maximaal leerpotentieel - het proces van uitleggen helpt je denken

Type 4c (Learned from AI):

  • Goede balans: geleerde kennis toepassen zonder AI-afhankelijkheid
  • Positief leerpotentieel, begrip, en productiviteit
  • Kleine verificatie-inspanning: je moet je geleerde kennis blijven toetsen

2.4 De verificatie-inspanning paradox

Het meest kritieke verschil voor studenten: bij Type 1-3 moet je MEER verifiëren dan een ervaren ontwikkelaar, maar heb je MINDER middelen om dit te doen. Een senior ziet in één oogopslag of code klopt; een student moet alles opzoeken in officiële documentatie, leerboeken, of vragen aan docenten. Niet in andere AI-tools - dat is beter dan niks, maar alsnog onbetrouwbaar en een cirkelredenatie.

Dit maakt Type 1 t/m 3 voor studenten veel riskanter dan de scores suggereren. De negatieve scores voor “Verificatie-inspanning” (--) wegen zwaarder voor studenten dan voor ervaren ontwikkelaars.

2.5 Geschrapte criteria

Codekwaliteit staat niet in de tabel. Dit criterium hangt niet af van het gebruikstype, maar van:

  • Hoe goed je prompt schrijft
  • Welke constraints je meegeeft (types, linters, tests)
  • Of je code reviews doet
  • Of je test-driven development toepast

Type 1 met goede prompts en constraints levert betere code dan Type 4a zonder tests of linters. Het criterium is relevant, maar orthogonaal aan de taxonomie.

3. Toetsvormen in het nieuwe onderwijs

Het verificatieprobleem dat we eerder bespraken (je kunt niet in iemands hoofd kijken) vereist een andere manier van toetsen. In plaats van alleen het eindproduct te beoordelen, moeten we toetsen of studenten daadwerkelijk begrijpen wat ze hebben gemaakt.

De volgende drie subsecties (3.1-3.3) behandelen toetsen op leren in plaats van product, criteriumgericht mondeling assessment, en theorietoetsen zonder hulpmiddelen.

3.1 Toetsen op leren in plaats van op product

De traditionele aanpak: beoordeel het werkende product. De student levert code in, het werkt, cijfer is goed. Maar met AI kan die code volledig gegenereerd zijn zonder dat de student iets heeft geleerd.

De nieuwe aanpak: beoordeel het leerproces en begrip. De student moet kunnen uitleggen:

  • Waarom deze aanpak gekozen is
  • Welke alternatieven overwogen zijn
  • Hoe de code werkt op conceptniveau
  • Wat de trade-offs zijn

Dit verschuift de verantwoordelijkheid naar de student. Je mag AI gebruiken tijdens het maken, maar je moet later zonder AI kunnen uitleggen wat je hebt gedaan.

3.2 Criteriumgericht mondeling assessment

Tijdens het project zit de student tegenover een docent en licht het werk toe. Dit is geen “verdediging” zoals bij een eindscriptie, maar een gesprek over het proces:

  • “Hoe heb je deze bug gevonden?”
  • “Waarom heb je voor deze datastructuur gekozen?”
  • “Wat zou je anders doen als je opnieuw begon?”

De student die alles heeft laten genereren zonder te begrijpen, komt hier in de problemen. De student die Type 1 (Human in the Lead) heeft gebruikt, kan precies uitleggen waarom elke keuze is gemaakt.

Criteria voor beoordeling:

In plaats van een enkel cijfer gebruiken we een set criteria waarop de student wordt beoordeeld:

  • Begrip van concepten: Kan de student uitleggen wat de code doet?
  • Ontwerpbeslissingen: Kan de student verantwoorden waarom deze aanpak gekozen is?
  • Probleemoplossend vermogen: Kan de student debuggen zonder AI?
  • Reflectie: Kan de student aangeven wat beter had gekund?

Dit maakt expliciet wat we verwachten. Een student die AI effectief heeft gebruikt (Type 1 of 2) scoort hoog op alle criteria. Een student die blind heeft overgenomen (Type 3) scoort alleen hoog op “werkend product” maar niet op begrip.

3.3 Theorietoets op conceptbegrip

Een toets in een safe browser, zonder AI of internet. Geen code schrijven, maar concepten uitleggen:

  • “Leg uit wat dependency injection is en waarom je het zou gebruiken”
  • “Vergelijk REST en GraphQL: wat zijn de trade-offs?”
  • “Beschrijf hoe je een race condition debugt”

Dit toetst of de student de concepten begrijpt, los van de mogelijkheid om AI te gebruiken. Een student die heeft geleerd met AI (Type 4c) kan deze vragen beantwoorden. Een student die alleen heeft ge-vibe-coded (Type 3) kan dat niet.

4. Student in regie: flexibel schakelen tussen types

De taxonomie uit blog 2/3 beschrijft wat er gebeurt, maar niet wat studenten zouden moeten doen. Het antwoord is niet lineair per leerjaar — het hangt af van de individuele student, de context, en het leerdoel.

4.1 Geen lineaire progressie, maar cyclisch schakelen

De klassieke Piaget-fout is denken dat studenten lineair van beginner naar expert gaan. In werkelijkheid moeten studenten — net als Agile teams — constant kunnen schakelen. Een derdejaarsstudent die een nieuw framework leert, gaat tijdelijk terug naar Type 4c (Learned from AI). Een tweedejaars die zijn eigen code niet meer snapt, moet terug naar Type 4a (Old Skool) om de Big Ball of Mud te ontrafelen.

De kernvraag is niet “welk leerjaar ben ik?” maar “heb ik voldoende expertise om deze specifieke AI-output te verifiëren?” Als het antwoord “nee” is, stap je terug naar Type 4 (AI als leraar of geen AI).

4.2 Besluit voor jaar 2: wat adviseren we?

Voor tweedejaars Software Engineering studenten is het advies:

Context Geadviseerde types Rationale
Nieuw concept leren 4c (Learned from AI), 4b (Rubber Duck) AI als leraar, niet als butler
Brainstormen voor opdracht 2 (Human Curates) Laat AI opties genereren, maak zelf de keuze
Code implementeren 1 (Human in the Lead) met constraints, of 4a (Old Skool) Gedetailleerde prompt + verificatie, of volledig zelf
Vastgelopen / Big Ball of Mud 4a (Old Skool), 4b (Rubber Duck) Terug naar basics, zelf debuggen

Type 3 (Vibe Coding) is geen advies — dit is wat je vermijdt. Het verschil met Type 1: bij Human in the Lead controleer je actief, bij Vibe Coding accepteer je blind.

4.3 Student bepaalt, niet de AI

“Student in regie” betekent: de student maakt bewuste keuzes over welk type te gebruiken. Niet de AI, niet de tijdsdruk, niet de verleiding van snelheid.

Dit vereist metacognitie: kunnen reflecteren op je eigen leerproces. Een student die zegt “Ik gebruik Type 2 voor brainstormen, daarna Type 4a voor implementeren omdat ik dit patroon nog niet ken” toont meer begrip dan een student die zegt “Ik gebruik gewoon ChatGPT.”

De toetsvormen uit sectie 3 zijn ontworpen om dit te toetsen. Bij het criteriumgericht interview vraag je: “Welk type AI-gebruik paste je hier toe, en waarom was dat de juiste keuze voor deze situatie?”

5. Besluit: AI als leermiddel, niet als vervanging

De titel van deze blog spreekt van “AI als leermiddel in plaats van butler”. Dat woord is bewust gekozen. Een butler doet wat je zegt zonder dat je hoeft na te denken. Dat is precies wat Type 3 (AI in the Lead / Vibe Coding) is: de AI doet het werk, jij accepteert, niemand leert iets.

AI-assisted gitaar leren Figuur 2: AI-assisted gitaar leren met feedback als leermiddel.

AI als leermiddel betekent iets anders:

  • Type 4c (Learned from AI): Je vraagt AI om een concept uit te leggen, leest het, begrijpt het, en past het later zelfstandig toe
  • Type 4b (Rubber Duck AI): Je gebruikt AI als klankbord om je eigen gedachten te ordenen
  • Type 1 (Human in the Lead): Je geeft gedetailleerde opdrachten, controleert alles, en leert van het proces

Het verschil: bij AI als leermiddel blijft de student actief betrokken. Bij AI als butler verschuift het denken naar de AI.

De paradox die we eerder zagen blijft staan: AI maakt programmeren toegankelijker, maar verlaagt tegelijk de lat voor mensen die nog niet kunnen beoordelen of de output klopt. De oplossing is niet AI verbieden, maar studenten leren het verantwoord te gebruiken.

Begin met begrip, niet met generatie. Pas als je de basis beheerst, kun je veilig AI gebruiken om sneller te werken. Maar die basis moet er eerst zijn.

6. Tot slot: Implementatie

Dit drieluik sluit af met een oproep: pas ICT-onderwijs aan zodat studenten AI effectief én verantwoord leren gebruiken. Begin met bewustwording (blog 1/3), bouw oordeelsvorming op met een taxonomie (blog 2/3), en neem beslissingen over toetsvormen en leertrajecten (deze blog).

Unesco instituut voor educatie (IESALC) (2023) adviseert in haar quick start guide om AI-gebruik in het hoger onderwijs expliciet te kaderen en didactisch te begeleiden. Deze blog operationaliseert dat voor ICT: eerst fundament, dan AI, met passende toetsvormen.

Lees ook:


Samenvatting als antwoorden op BOB-vragen ‘Besluitvorming’

BOB-model als trechter van probleem naar besluit Figuur 3: BOB-model als trechter van probleem naar besluit (Schop, z.d.).

In de Besluitvormingsfase van het BOB-model worden vier vragen beantwoord:

Vraag Beantwoording in deze blog
1. Wat besluiten we?
  • Toetsvormen aanpassen: criteriumgericht interview (CGI) en theorietoets in safe browser
    - Brownfield development voor complexere leeromgeving
    - Nadruk op domeinkennis en analyse van bestaande code
    → Sectie “Toetsvormen in het nieuwe onderwijs”
2. Wat gaan we doen?
  • Samen met docenten het onderwijs doorontwikkelen
    - Studenten leren eerst Type 4a/4b/4c (zonder of met AI als leraar)
    - Daarna pas Type 1-3 (AI genereert code) gebruiken
    → Sectie “Start zonder AI: Bouw eerst je fundament”
3. Weet iedereen welk besluit is genomen?
  • Communiceren via studiedag
    - Teams-omgeving
    - Eventueel nieuwsbericht
    → Sectie “Tot slot: Implementatie”
4. Is iedereen het met het besluit eens?
  • Afstemmen met Curriculumcommissie (CuCo)
    - Afstemmen met stuurgroepen en opleidingscommissie
    - Studenten informeren en polsen
    → Dit vraagt om vervolgacties buiten deze blog

Bronnen

  • HBO-i. (2018). ICT Research Methods — Methods Pack for Research in ICT. Geraadpleegd op 21 januari 2026 van https://ictresearchmethods.nl/
  • Kam, M., Miller, C., Wang, M., Tidwell, A., Lee, I. A., Malyn-Smith, J., Perez, B., Tiwari, V., Kenitzer, J., Macvean, A., & Barrar, E. (23 juni 2025). What do professional software developers need to know to succeed in an age of Artificial Intelligence? arXiv. Geraadpleegd op 13 januari 2026 van https://arxiv.org/abs/2506.00202
  • Schop, G. J. (z.d.). BOB-model. Managementmodellensite. Geraadpleegd op 20 januari 2026 van https://managementmodellensite.nl/bob-model/
  • Unesco instituut voor educatie (IESALC). (2023). ChatGPT and Artificial Intelligence in Higher Education: Quick Start Guide. Geraadpleegd op 13 januari 2026 van https://unesdoc.unesco.org/ark:/48223/pf0000394935
Bart van der Wal

Bart van der Wal

Docent aan de HAN University of Applied Sciences en MAMIL met een passie voor SwimRun en andere avontuurlijke duursportavonturen. Schrijft over technologie, softwareontwikkeling en duursport.