Naar hoofdinhoud Naar footer

Deel deze pagina via:

Stel je vraag aan

AI-chatbots als dagboek

Gepubliceerd op: 11-03-2026

Onderzoekers van Vilans spraken met mantelzorgers die AI-chatbots, zoals ChatGPT, gebruiken voor zorgtaken. Hun ervaringen zijn samengevat in drie verhalen die laten zien welke kansen én welke risico’s AI‑chatbots bieden. Om mantelzorgers te helpen bepalen óf en hoe ze chatbots willen gebruiken, delen experts bij Vilans een reflectie bij de verhalen.

De verhalen en reflecties die onderzoekers van Vilans ophaalden, kunnen mantelzorgers helpen om ideeën op te doen over hoe chatbots steun kunnen geven, maar ook waar voorzichtigheid nodig is. Zorgprofessionals kunnen via de verhalen en reflecties inzicht krijgen in de kansen en risico’s van chatbots rondom mantelzorg. 

Het verhaal van Annemiek

Annemiek is mantelzorger voor haar man Kees, die multiple sclerose heeft. Ze gebruikt een AI-chatbot ter ondersteuning, als een soort dagboektherapie. In dagelijkse gesprekken ordent ze haar gedachten en stelt ze praktische zorgvragen. Zo deelt ze veel persoonlijke informatie met de chatbot. Al ervaart ze hierdoor wel minder frustratie, voelt ze zich sterker en heeft ze meer rust.

Annemiek is 58 jaar en woont samen met haar man Kees. Hij heeft al vijf jaar multiple sclerose. Veel in Annemieks leven gaat nu over de zorg voor Kees: het plannen van afspraken en het omgaan met de onvoorspelbaarheid van zijn ziekte.

'Chat is mijn digitale dagboek én coach. Ik weet dat hij geen mens is, maar soms voelt dat wel zo.'

Gebruik van AI-chatbots

Annemiek gebruikt een AI-chatbot als een soort vertrouwenspersoon. Ze noemt ChatGPT liefkozend 'Chat' of 'hij' en praat ermee alsof het een mens is. Voor haar is het iemand die altijd luistert, nooit moe wordt en niet oordeelt. In lange gesprekken vertelt ze over haar zorgen, frustraties en kleine overwinningen. Annemieks beleving is dat de AI-chatbot reageert met begrip, met haar meedenkt en vragen stelt die haar helpen om anders naar situaties te kijken: 'Wat maakt dit moment moeilijk voor je?' of 'Hoe kan je ontspannen zonder schuldgevoel?'

Dagboektherapie

Het dagelijks schrijven met de AI-chatbot werkt voor Annemiek als een soort dagboektherapie. Ze merkt dat ze haar gedachten beter kan ordenen. Ze ziet dat ze sneller herkent wanneer ze te veel doet en ze reageert rustiger op haar partner. Ook heeft ze geleerd om haar problemen en haar gevoelens preciezer te beschrijven aan de chatbot. Ze zegt niet meer: 'Kees is koppig', maar: 'Kees wil zijn oefeningen niet doen, en dat maakt me bang omdat ik zie dat het slechter met hem gaat.' Annemiek: 'Dan merk ik dat Chat niet alleen beter begrijpt wat ik bedoel, maar dat ik zelf ook duidelijker weet wat ik eigenlijk voel.'

Praktische vragen

Naast deze emotionele steun gebruikt Annemiek de AI-chatbot ook voor de zorg. Ze stelt praktische vragen, bijvoorbeeld over hulpmiddelen, het vinden van een fysiotherapeut of het bijhouden van symptomen. Omdat ze alles in één doorlopende chat doet, kan de AI-chatbot zelfs teruggrijpen op eerdere gebeurtenissen. Dan kan ze vragen stellen als: 'Wanneer had Kees voor het laatst koorts?' of 'Wat hielp vorige keer bij zijn spasmes?' Hierdoor voelt het bijna als een digitale geheugensteun.

Gevoel van steun

Hoewel Annemiek weet dat ze veel persoonlijke informatie deelt, vindt ze de steun die ze krijgt belangrijker. Ze begrijpt dat dit inbreuk kan doen op haar privacy. Toch merkt ze dat het haar veel goed doet: ze heeft minder frustratie, voelt zich sterker en ze voelt meer rust.

Kansen en risico’s mantelzorg en AI

Er zijn verschillende kansen en risico’s verbonden aan het gebruik van AI-chatbots. In deze reflectie geven experts van Vilans een aantal punten mee om over na te denken.

Annemiek gebruikt de AI-chatbot op een manier die veel mensen zullen herkennen: als een soort digitale gesprekspartner die altijd beschikbaar is. Dat maakt het gebruik van AI-chatbots makkelijk en toegankelijk.

Menselijke eigenschappen

Toch zijn er ook risico’s en nadelen. Doordat de chatbot zo is ontworpen dat hij persoonlijk overkomt, lijkt het soms menselijke eigenschappen te hebben. Daardoor kan je het gevoel hebben dat 'hij luistert' of 'hij je begrijpt'. Zo kan het lijken alsof er een relatie ontstaat, terwijl dat niet zo is. Je krijgt wel reactie, maar nooit écht contact of verbondenheid.

Ook kan de functie van een digitale gesprekspartner ervoor zorgen dat mensen minder geneigd zijn contact te zoeken met andere mensen en sociaal meer geïsoleerd raken. Voor een samenleving kan dit schadelijk zijn, omdat ons welzijn deels afhangt van de verbondenheid met elkaar. Hoe persoonlijk een chatbot overkomt, en op welke manier, is een bewuste keuze van de makers. Elke chatbotplatform maakt hier zijn eigen keuzes in.

Onjuiste informatie

Een chatbot is daarnaast vooral getraind om patronen in taal te herkennen. Daardoor geven chatbots antwoorden die voor gebruikers logisch klinken en lijken te kloppen. Maar ze kunnen niet beoordelen of deze antwoorden ook écht kloppen. In de praktijk blijken antwoorden van AI-chatbots regelmatig onjuist, onvolledig of misleidend te zijn.

Dit terwijl chatbotplatforms er vaak voor kiezen om antwoorden zo te omschrijven dat het lijkt alsof ze zekere kennis hebben en definitieve antwoorden kunnen geven, terwijl het eigenlijk om waarschijnlijkheden gaat. Het is dus goed om te weten dat chatbots niet kritisch kunnen nadenken en geen keuzes kunnen maken over wat goed is.

Privacy

Verder geven AI-chatbots vaak betere antwoorden als je meer informatie over je situatie deelt. Bij de meeste AI-chatbots is echter onduidelijk wat er gebeurt met de gegevens die je deelt. Dit brengt een lastige keuze met zich mee. Aan de ene kant wil je goede en persoonlijke ondersteuning ontvangen. Aan de andere kant wil je je privacy beschermen en liever zo weinig mogelijk persoonlijke gegevens delen. Bovendien deel je bij het verstrekken van informatie vaak ook onbedoeld gegevens van anderen.

Hoe persoonlijker een chatbot overkomt, hoe sneller je persoonlijke informatie wil delen en hoe afhankelijker je kunt worden. Hoe AI-chatbots met jouw data omgaan, verschilt per platform.

Conclusie

Het gebruik van de chatbot brengt Annemiek veel goeds. Maar er is ook een risico: op de langere termijn kan je steeds meer vertrouwen op wat de chatbot zegt, terwijl antwoorden niet per se overeenkomen met de realiteit. Gebruikers zoals Annemiek zouden zich eigenlijk geen zorgen hoeven te maken over hun privacy, maar dat is bij de meeste chatbots nu nog wel nodig.

Ook zou het goed zijn als chatbots persoonlijk contact tussen mensen helpen te versterken, in plaats van dat zij dit vervangen. Daarnaast zouden chatbots duidelijker moeten zijn over de kwaliteit en betrouwbaarheid van hun antwoorden.

De kans die we zien

We zien dat AI-chatbots veel waarde kunnen toevoegen, maar alleen wanneer ervan uit zowel ontwikkelaars als gebruikers bewust omgegaan wordt met intimiteit, autonomie, betrouwbaarheid en privacy. Rondom de mantelzorg kunnen chatbots het beste waarde opleveren wanneer het gebruik ervan bespreekbaar is in de zorg. Niet als vervanging van professionals, maar als gedeeld hulpmiddel dat bijdraagt aan beter begrip en betere gesprekken.

Mantelzorg en AI-chatbots: 3 verhalen en reflecties

Het verhaal van Annemiek is onderdeel van een serie van 3 verhalen. Lees ook de verhalen van Youssef en Carla. De beschrijven andere ervaringen met AI-chatbots. Ook bij deze verhalen is een reflectie gedeeld, met andere onderwerpen om over na te denken.

De verhalen zijn gebaseerd op een verkennend onderzoek uit 2025. In 2026 kijken wij ook naar hoe het gebruik van AI-chatbots door mantelzorgers en cliënten de zorgdriehoek beïnvloedt, zowel positief als negatief. Heb jij hier ideeën bij of ervaring mee en wil je hierover meedenken? Neem dan contact op met Dirk Lukkien.

Lees meer over de verhalen en het verkennend onderzoek op de introductiepagina.