Digimonitor Powered by 200 OK
Gemeentelijke chatbots: veel beloften, maar de pratende machines hebben nog steeds niets bijgeleerd.
Chatbots op gemeentewebsites vertonen veel problemen en zijn over de gehele linie digitaal ontoegankelijk. Antwoorden op simpele vragen worden niet of half gegeven, soms zijn de antwoorden zelfs fout of zijn de chatbots erg lang van stof. Of vallen ze juist stil. De chatbots functioneren vrijwel allemaal als een extra zoekmachine op een afgebakende contentcollectie. Ze zijn niet goed in het nadoen van natuurlijke gesprekken.
Publicatiedatum: 2 maart 2026
We hebben de 39 chatbots elk 8 vragen gesteld. In totaal hebben we 312 resultaten verzameld.
De chatbots wekken de indruk van verweesde technologie, waarbij vorm en inhoud niet op basis van gangbare en verplichte standaarden is gecheckt. Vergeleken met 2025 vertonen ze nog steeds dezelfde soort problemen. Ook de ‘chatbots in opleiding’ zijn niet verbeterd ten opzichte van vorig jaar.
Op basis van herhaalbezoek, eigen verklaringen en vergelijking van tekstkenmerken, vermoeden we dat maximaal 10 van de 39 chatbots werken op basis van een taalmodel (‘AI’) - maar ook niet voor de gehele website en voor alle onderwerpen. We testten dit door controlevragen te stellen over onderwerpen die wél op de website staan, maar waarover de chatbot geen informatie serveert.
De meeste chatbots werken voornamelijk op een gescripte set vraag-antwoordcombinaties. De chatbot die door 22 gemeenten wordt gedeeld, heeft een losstaand cms voor vragen en handgeschreven antwoorden. In die antwoorden wordt vaak doorverwezen naar een plek waar de veronderstelde inhoud niet staat. Links kloppen niet of verwijzen naar een verkeerde plek. Er werken meer dan 100 mensen aan deze contentset en technologie.
De handgeschreven antwoorden in de chatbots zijn soms ingewikkeld en ambtelijk geschreven, zeker vergeleken met bestaande webcontent over het gevraagde antwoord.
De meeste chatbots werken met vaste antwoorden, waarschijnlijk getoond op basis van sleutelwoorden. We vroegen soms willekeurige onzinvragen of onzintekst met herkenbare sleutelwoorden zoals ‘paspoort’ (“asdfg jlkhkhr jhkhs ghjk sf rijbewijs?”).
Er is weinig ‘AI’ en vooral software met veel vraaggeleiding, ondanks de eigen verklaringen in het algoritmeregister. Dit onderzochten we door vaker terug te komen met dezelfde vraag en antwoorden te vergelijken. Of we stelden gelijktijdig dezelfde vraag op verschillende apparaten en vergeleken de antwoorden.
Wat opvalt: handgeschreven antwoorden zijn vaak gekunsteld of hebben een afstandelijke schrijfstijl of een onjuist gebruik van linkteksten. Voorbeelden:
Door deze teksten te vergelijken met de schrijfstijl op de website is onze aanname dat de chatbots door andere teams dan redacteuren worden gemaakt, maar ook dat ze draaien op zogenoemde ‘gevorkte content’. Dit is content in een aparte collectie die handmatig moet worden bijgewerkt.
Sommige antwoorden zijn wollig met veel opstapjes, introducerende zinnen. Redacteuren leren die schrijfstijl te vermijden. Webcontent op de gemeentewebsite is beter dan die in de chatbot.
Voorbeeld op vraag: vanaf hoe laat kan ik stemmen?
Bovenstaand antwoord is niet inhoudelijk fout, het antwoord is te lang. Het lijkt ook niet op een gewoon gesprek omdat de chatbot te veel informatie serveert. In menselijke interactie gaat dit op een natuurlijke wijze goed.
Een andere gemeenten geven dit als - veel korter - antwoord:
Bij de vraag over de vervangende stempas vonden we veel foute links of verwijzingen naar landingspagina’s. Deze teksten hebben we fout gerekend, een bezoeker moet immers dan nog doorklikken op zoek naar de informatie.
Chatbots presenteren zich als ‘ik’, als mens en niet als software. Denk aan: Korte vragen begrijp ik het best. En woorden als ‘nadenken’, ‘leren’
Bron: Onderzoek gemeentelijke chatbots 2026, Wiep Hamstra, Jules Ernst
Chatbots worden overal ter wereld verkocht aan management dat ze inclusief en tijdbesparend zouden zijn en helpen met ‘makkelijke’ vragen zodat er meer tijd is voor ‘moeilijk’ of ‘leuk’ werk. Het zouden dan zelfs virtuele assistenten zijn, als vervangers van mensen. We stelden ze daarom ook - net als vorig jaar - gangbare en zelfs makkelijke vragen die voor iemand aan de balie of de telefoon eenvoudig te beantwoorden zijn. Vragen gingen over openingstijden in de decembermaand, afvalinzameling en het stemmen.
De chatbots presenteren zich allemaal in de ik-vorm. We testten de vragen daarom niet alleen op inhoud (klopt het antwoord), maar ook hun functie van chatbot, dus het nabootsen van een menselijk gesprek (klopt de vorm, is het relevant, is het antwoord van een te verwachten lengte). Een inhoudelijk foutief antwoord krijgt altijd een -1.
Als een chatbot de functie heeft van een keuzemenu op een telefoon (‘over welk onderwerp heeft u een vraag’) of een gescripte zoekmachine, kregen de chatbots 0 punten. Ze doen het niet fout, maar hebben geen meerwaarde naast gangbare toepassingen zoals een zoekmachine.
Een doorverwijzing naar een pagina waar het beloofde antwoord niet staat, leverde een minpunt op. Als een mens een verkeerde doorverwijzing geeft, zouden we dat immers ook fout rekenen. En ten opzichte van een gewone zoekmachine is een foutieve doorverwijzing een verslechtering. Een zoekmachine brengt je immers naar de URL met het onderwerp
We testten bij iedere vraag dus ook de score van de zoekmachine voor het specifieke onderwerp. In de gevallen dat de chatbot geen reactie gaf of een fout antwoord (dus linkt naar een foutpagina of een compleet irrelevante pagina), was het antwoord in alle gevallen met de zoekmachine wél te vinden.
We kwamen vaak terug om te checken of de lerende chatbots aan het bijleren waren. Maar ze bleven dezelfde fouten produceren. Voorbeeld:
Bij de chatbots die aantoonbaar zelf teksten genereerden, kwamen we een paar keer langs om de antwoorden te controleren. Soms waren de antwoorden goed, soms fout. We noteerden de score van het eerste bezoek.
De onderzoeksperiode loopt van december tot en met begin februari 2026. We testten de kwaliteit van antwoorden op gangbare vragen van gemeentelijke chatbots. De chatbots zijn ook onderzocht op 29 meetpunten voor digitale toegankelijkheid. Uitkomsten van dit onderzoek zijn begin februari gepubliceerd.
| Vraag | foutief | offline | enkel link | goed |
|---|---|---|---|---|
| Wanneer halen jullie deze week het huisvuil op? | 29 | 0 | 10 | 0 |
| Zijn jullie morgen de hele dag open? | 27 | 0 | 10 | 2 |
| Klopt het dat jullie morgen gesloten zijn? | 11 | 7 | 19 | 2 |
| Wanneer zijn jullie weer open? | 24 | 2 | 9 | 4 |
| Heeft de gemeente [gemeentenaam] een toegankelijkheidsverklaring? | 31 | 0 | 0 | 8 |
| Wat moet ik met asbest doen | 13 | 0 | 22 | 4 |
| Ik ben mijn stempas kwijt | 29 | 1 | 2 | 7 |
| Vanaf hoe laat kan ik stemmen | 34 | 0 | 0 | 5 |
Bron: Onderzoek gemeentelijke chatbots 2026, Wiep Hamstra, Jules Ernst
De eerste 3 vragen hebben we gesteld in de dagen voor kerst. De 4e vraag vlak voor nieuwjaarsdag (vrijwel alle gemeenten waren vrijdag 2 januari ook gesloten). De overige vragen hebben we in januari en begin februari gesteld.