“Kun je een AI bouwen die zelfstandig denkt én toch naar je blijft luisteren?”

Die vraag raakte me gisteren tijdens mijn workshop Citizen Developer, waar niet programmeurs (docenten en onderzoekers) van de Hogeschool Utrecht chatbots en Canvas LMS tools leren maken met Python, Azure Openai en Canvas. De HU Canvasbot. De HU feedforward bot.

Niet omdat het een nieuwe vraag is, maar omdat we er nu, ineens, heel dichtbij komen.

De afgelopen jaren hebben we digitale assistenten gebouwd die vragen beantwoorden, teksten schrijven, code genereren en data analyseren. Handig. Indrukwekkend. Maar altijd nog een soort slimme papegaai: hij praat terug, maar leidt niet zelf.

Dat is aan het veranderen.

De AI van nu leert iets nieuws: doelen nastreven. Zelfstandig plannen. Verantwoordelijkheid nemen.

Welkom in de wereld van Agentic AI.

Welkom in het spanningsveld tussen autonomie en alignment.

De verleiding van loslaten

Stel je voor: je werkt met een AI-assistent die je werk écht begrijpt. Je hoeft geen commando’s meer te typen. Je vertelt je intentie, en hij doet de rest.

  • Je zegt: “Help me een onderzoeksvoorstel te maken.”
  • Hij zoekt bronnen, schrijft een concept, stelt vragen als iets onduidelijk is.
  • Hij koppelt aan je teamleden, bewaakt deadlines, stemt af met het rooster.

Een droom?

Misschien.

Maar wat als hij nét iets te veel vrijheid neemt?

Wat als hij aannames maakt die jij nooit zou maken?

Wat als hij namens jou beslissingen neemt die jij nooit zou willen nemen?

Dan voelt autonomie ineens… ongemakkelijk.

De paradox van slimme systemen

Hoe slimmer een AI wordt, hoe meer hij van je kan overnemen.

Maar hoe meer hij van je overneemt, hoe groter de kans dat hij je intentie verkeerd begrijpt.

Dat is de kern van de alignment paradox.

En dat maakt Agentic AI zo fundamenteel anders dan de tools die we tot nu toe gebruikten.

Een aantal strategieën die we aanbieden in onze workshops om hiermee om te gaan:

  • Doel-abstractie: de AI leert jouw doelen te herleiden uit vage input, zonder te fantaseren.
  • Guardrails: duidelijke grenzen waarbinnen de agent mag opereren — en waar hij moet stoppen.
  • Reflectie: systemen die terugkijken op hun eigen gedrag en zichzelf corrigeren.
  • Gespreide besluitvorming: agents die weten wanneer ze moeten overleggen of escaleren.

Geen van die strategieën is perfect. Maar samen vormen ze een nieuw fundament:

Eén waarin we de AI niet alleen slimmer maken, maar ook verantwoordelijker.

Waarom dit groter is dan technologie

Dit gaat niet alleen over IT. Of automatisering. Of modelarchitecturen.

Dit raakt aan iets fundamentelers: hoe we samenwerken met niet-menselijke intelligentie.

In het onderwijs bijvoorbeeld:

Willen we leerlingen leren samenwerken met AI, dan moeten ze niet alleen leren gebruiken. Ze moeten leren begrenzen, ondervragen, herzien, afstemmen.

Van AI gebruikers naar AI makers.

In beleid en bestuur:

Als AI helpt bij besluitvorming, moeten we kunnen vertrouwen op een digitale adviseur die weet waar zijn rol stopt.

Actieve AI strategie voor CVB en Directeuren

En in bedrijven:

Teams zullen AI-assistenten in hun midden hebben. Dan moeten we duidelijke rollen, verantwoordelijkheden en verwachtingen definiëren — niet alleen voor mensen, maar ook voor systemen.

Groei door AI, maar wel continuïteit zonder AI risico

Tot slot: de kunst van wederzijds vertrouwen

We bouwen aan een toekomst waarin AI-agenten autonoom kunnen handelen.

Maar autonomie zonder alignment is roekeloos.

En alignment zonder autonomie is slechts een chatbot in een keurslijf.

Tussen die twee ligt de kunst van het bouwen.

Van samenleven. Van samenwerken.