De verhalen en reflecties die onderzoekers van Vilans ophaalden kunnen mantelzorgers helpen om ideeën op te doen over hoe chatbots steun kunnen geven, maar ook waar voorzichtigheid nodig is. Zorgprofessionals kunnen via de verhalen en reflecties inzicht krijgen in de kansen en risico’s van chatbots rondom mantelzorg.
Het verhaal van Youssef
Youssef is mantelzorger voor zijn jongste zoon, die een meervoudige beperking heeft. Youssef gebruikt een AI-chatbot om medische informatie begrijpelijk te maken en zich beter voor te bereiden op gesprekken met de arts. De chatbot geeft hem het gevoel minder afhankelijk te zijn van professionals doordat hij het idee heeft beter te begrijpen wat er speelt. Wel ontdekte hij dat de chatbot fouten kan maken en dat hij daardoor kritisch moet zijn op de antwoorden door bijvoorbeeld om bronnen te vragen. Privacy houdt hem minder bezig; de praktische steun van de AI-chatbot vindt hij belangrijker.
Youssef is 42 jaar en woont met zijn vrouw en twee kinderen in Utrecht. Zijn jongste zoon, Sami (9), heeft een meervoudige beperking en krijgt sondevoeding. Youssef werkt in de IT, maar is veel thuis om de zorg te regelen en contact te houden met artsen en organisaties.
Gebruik van AI-chatbots
Voor Youssef is een AI-chatbot in de eerste plaats een praktisch hulpmiddel. Hij ziet het als een kennisbron die altijd tijd voor hem heeft. Hij gebruikt een AI-chatbot vooral om de medische wereld beter te begrijpen. Ontvangt hij een brief of rapport van het ziekenhuis? Dan kopieert hij de tekst in de chat en vraagt om de informatie uit te leggen in gewone taal. Dit maakt hem minder afhankelijk van professionals en geeft hem rust: 'Zo heb ik het gevoel dat ik een beetje weet wat er bedoeld wordt, nog voordat ik de arts spreek.'
Gevoel van houvast
Youssef vindt dat de AI-chatbot hem ook helpt om zich beter voor te bereiden op gesprekken met de artsen. Als hij twijfelt over een therapie of bijwerkingen van medicijnen, dan vraagt hij AI om de verschillende opties op een rij te zetten. Soms vraagt hij zelfs letterlijk: 'Doe alsof je een kinderarts bent met ervaring in sondevoeding en leg uit wat ik moet weten'.
De antwoorden geven hem steun en het gevoel dat hij beter begrijpt wat er speelt. Daardoor durft hij tijdens gesprekken met de arts door te vragen en voelt hij zich meer op hetzelfde niveau als zorgprofessionals.
Gevoel gehoord te worden
Wat Youssef vooral fijn vindt, is dat de AI-chatbot eindeloos geduld heeft. Als hij zich zorgen maakt of iets voor de derde keer vraagt, reageert de AI-chatbot rustig en zonder irritatie. Dat is anders dan bij sommige zorgverleners, die soms erg druk zijn. De chatbot geeft hem het gevoel dat hij echt gehoord wordt. Dit mist hij soms in het echte zorgsysteem.
Fout advies
Youssef heeft helaas ook geleerd dat AI-chatbots soms fouten maken. Hij nam een keer advies van de chatbot over sondevoeding aan dat achteraf verkeerd bleek te zijn. Dat zorgde voor een lastig gesprek met de arts. Hij schaamde zich daarna, en durfde niet te zeggen dat de informatie van een AI-chatbot kwam. Sindsdien is hij voorzichtiger. Hij vraagt de chatbot altijd om bronnen te geven bij de antwoorden. Ook gebruikt hij de optie 'doe diep onderzoek' om betere antwoorden te krijgen.
Gevoelige gegevens
Youssef is minder bezig met zijn privacy en die van anderen. Hij denkt weinig na over de gevoelige informatie die hij deelt over zijn zoon. Voor hem is het vooral belangrijk dat het systeem hem helpt in een druk en soms lastig zorgleven. Hij ziet AI niet als een bedreiging, maar als een praktische bondgenoot in een wereld waar wachttijden lang zijn en er soms weinig begrip is.
'De AI-chatbot is mijn zogenaamde dokter-tolk. Soms zit de chatbot ernaast, maar meestal helpt het me eindelijk te begrijpen wat er speelt.'
Kansen en risico’s mantelzorg en AI
Er zijn verschillende kansen en risico’s verbonden aan het gebruik van AI-chatbots. In deze reflectie geven experts van Vilans een aantal punten mee om over na te denken.
Youssef gebruikt een AI-chatbot om grip te krijgen op een zorgsysteem dat ingewikkeld en overweldigend is. De chatbot helpt hem moeilijke taal begrijpelijk te maken en informatie te ordenen. Hierdoor voelt hij zich beter voorbereid op gesprekken met zorgprofessionals. Dit geeft hem rust, vergroot zijn gevoel van controle en stelt hem in staat om betere vragen te stellen. In die zin speelt AI een duidelijke ondersteunende rol in een omgeving waarin Youssef vaak beperkt persoonlijke aandacht en tijd vindt.
Overtuigend klinken
Tegelijkertijd kan het gevoel van ondersteuning en controle ook schijn zijn. AI-chatbots begrijpen medische informatie namelijk niet echt. Ze voorspellen alleen welke tekst logisch volgt op basis van taalpatronen en waarschijnlijkheden. Daardoor kunnen ze verkeerde, onvolledige of zelfs verzonnen informatie geven. Het lastige hierbij is dat de informatie vaak wél overtuigend en deskundig klinkt. De mate waarin AI-chatbots overtuigend en deskundig overkomen is een bewuste keuze van de makers van dit soort systemen. Vaak wordt dit ingezet om de gebruikerservaring te verbeteren en mensen langer aan het platform te binden.
Chatbots kunnen nóg deskundiger overkomen als je ze vraagt om een rol aan te nemen, zoals die van een ervaren kinderarts. Dit komt omdat de antwoorden dan beter aansluiten bij je situatie. Hierdoor wekken ze sneller vertrouwen, omdat ze zo professioneel en empathisch overkomen. Dit kan ertoe leiden dat je de betrouwbaarheid van de informatie overschat.
Kritisch zijn is niet eenvoudig
Het is goed om je bewust te worden van deze beperkingen en kritisch te zijn. Toch kan het in de praktijk lastig zijn om steeds weer te controleren wat klopt. Het nagaan van informatie kost tijd en energie. Bovendien ben je geneigd technologie te vertrouwen wanneer deze consistent en deskundig overkomt. Zeker als eerdere ervaringen positief waren. Deze neiging noemen we ook wel 'automation bias'. Die vergroot het risico dat je foute of onvolledige informatie overneemt in je denken en beslissingen. Hierdoor kan dus toch meer vertrouwen ontstaan, waardoor je over de tijd minder kritisch wordt.
Verantwoordelijkheden
Wanneer je de AI-chatbot voor medische zaken gebruikt, kan dit daarnaast voor onbedoelde verantwoordelijkheden zorgen. Je moet de medische informatie snappen en beoordelen of het klopt of niet. In plaats van dat de chatbot je ontzorgt, kan dit juist leiden tot extra mentale belasting en druk.
De chatbot maakt de informatie begrijpelijk. Juist daardoor kan je het gevoel krijgen dat je die medische kennis ook volledig móét begrijpen, zeker wanneer het om een dierbare gaat. Ondertussen draagt de chatbot geen aansprakelijkheid voor de gevolgen van de verkeerde conclusies die je trekt.
Privacy
Privacy vormt een ander belangrijk aandachtspunt. Je kunt gevoelige informatie delen over je familielid, zoals medische documenten. En misschien deel je dan ook onbedoeld informatie over zorgverleners. Maar je weet niet precies waar deze informatie wordt opgeslagen, gebruikt of mogelijk hergebruikt. Vaak weegt de behoefte aan begrijpelijke informatie zwaarder. Maar minder privacy maakt je ook kwetsbaar.
Conclusie
De casus van Youssef laat zien dat AI-chatbots een waardevolle ondersteunende rol kunnen spelen in de zorg. Zeker als hulpmiddel om informatie toegankelijker te maken. Tegelijkertijd brengt dit gebruik duidelijke risico’s met zich mee op het gebied van betrouwbaarheid, verantwoordelijkheid, mentale belasting en privacy. Gebruikers zoals Youssef zouden zich eigenlijk geen zorgen hoeven moeten maken over hun privacy, maar dat is bij de meeste chatbots nu nog wel nodig. Daarnaast zouden chatbots transparanter moeten zijn over de kwaliteit en betrouwbaarheid van hun reacties.
De kans die we zien
We zien dat AI-chatbots veel waarde kunnen toevoegen, maar alleen wanneer er vanuit zowel ontwikkelaars als gebruikers bewust omgegaan wordt met intimiteit, autonomie, betrouwbaarheid en privacy. Rondom de mantelzorg kunnen chatbots het beste waarde opleveren wanneer het gebruik ervan bespreekbaar is in de zorg. Niet als vervanging van professionals, maar als gedeeld hulpmiddel dat bijdraagt aan beter begrip en betere gesprekken.
Mantelzorg en AI-chatbots: 3 verhalen en reflecties
Het verhaal van Youssef is onderdeel van een serie van 3 verhalen. Lees ook de verhalen van Annemiek en Carla. Die omschrijven andere ervaringen met AI-chatbots. Ook bij deze verhalen is een reflectie gedeeld, met andere onderwerpen om over na te denken.
De verhalen zijn gebaseerd op een verkennend onderzoek uit 2025. In 2026 kijken wij ook naar hoe het gebruik van AI-chatbots door mantelzorgers en cliënten de zorgdriehoek beïnvloedt, zowel positief als negatief. Heb jij hier ideeën bij of ervaring mee en wil je hierover meedenken? Neem dan contact op met Dirk Lukkien.
Lees meer over de verhalen en het verkennend onderzoek op de introductiepagina.