ChatGTP als dokter: een hallucinante gedachte
Afgelopen week trokken twee artikelen op het online tech-magazine The Register mijn aandacht. Het betreft het gebruik van ChatGTP van Open AI in de zorgsector. Het eerste artikel verscheen op 5 januari 2026 met de kop “ChatGPT is playing doctor for a lot of US residents, and OpenAI smells money”. Het tweede luidt: “ChatGPT Health wants your sensitive medical records so it can play doctor”. Ik zal me voornamelijk beperken tot de eerste publicatie en kort ingaan op de tweede. Het eerste artikel gaat over het gebruik van ChatGTP door gebruikers voor vragen over de gezondheid en over de gezondheidszorg. Een publicatie van OpenAI is de basis voor het stuk. De titel luidt: “AI(Artificial Intelligence) as a Healthcare Ally How Americans are navigating the system with ChatGPT”. Het beschrijft hoeveel mensen wereldwijd zorgvragen aan ChatGTP stellen maar gaat vooral in over het gebruik over zorgvragen in de Verenigde Staten.
Gebruik voor zorgvragen
Wereldwijd blijken volgens de OpenAI-publicatie zo’n 40 miljoen mensen dagelijks vragen te stellen over de gezondheid of gezondheidszorg. Dat gaat om ruim 5 procent van het mondiale ChatGTP-gebruik. Ongeveer zestig procent van de volwassenen uit de V.S. heeft de afgelopen drie maanden AI zoals ChatGPT gebruikt voor voornoemde vragen. OpenAI ziet dit niet als een aanklacht tegen de staat van de Amerikaanse gezondheidszorg, maar juist als een kans om beleid te beïnvloeden. OpenAI begrijpt best wel waarom veel van deze gebruikers in de Verenigde Staten wonen. Daar is het gezondheidszorgsysteem al lange tijd een bron van pijn en wordt het steeds erger, concludeerde OpenAI in de studie. De uitgaven aan gezondheidszorg zijn de afgelopen jaren enorm gestegen, en nu Republikeinse politici weigeren de subsidies van de Affordable Care Act te verlengen, zullen Amerikaanse huishoudens in 2026 opnieuw te maken krijgen met een sterke stijging van de zorgverzekeringskosten.
Healthcare-woestijn
In de V.S. gebruiken mensen het platform om te navigeren in het zorgsysteem. Die stellen dat het daardoor beter wordt om voor zich zelf op te komen in de zorg en ondersteunt hen volgens eigen zeggen bij het behalen van betere gezondheidsresultaten. Bijna 2 miljoen berichten per week gaan over zorgverzekeringen, waaronder het vergelijken van plannen, het begrijpen van prijzen, het afhandelen van claims en facturering, de toelatingseisen en inschrijving, en details over dekking en kostenverdeling.
In achtergestelde plattelandsgemeenschappen versturen gebruikers gemiddeld bijna 600.000 berichten per week over gezondheidszorg. Het OpenAI-rapport noemt die gemeenschappen “hospital deserts”, ziekenhuis-woestijnen dus. Men definieerde deze gebieden als locaties die meer dan 30 minuten rijden verwijderd zijn van een algemeen medisch ziekenhuis/algemeen kinderziekenhuis. In de praktijk uiten deze ‘woestijnen’ zich in verdwenen specialismen zoals cardiologie, oncologie en neurologie, waardoor patiënten langere afstanden moeten afleggen, te maken krijgen met vertraagde zorg en slechtere zorgresultaten.
Aanschurken tegen diagnose-stellen
Hoewel nergens het stellen van diagnoses gebruikt wordt in de Open-AI-publicatie gaat het gebruik van ChatGTP wel degelijk over het interpreteren van symptomen bij gebruikers. Ongetwijfeld zal OpenAI de ChatGTP-antwoorden nooit als diagnoses labelen.
Toch is het zo dat als je intypt dat je opeens pijn op de borst hebt met pijn in de kaak dat ChatGTP je aanraadt om 112 acute bellen omdat het best een hartinfarct kan zijn. Bij acute pijn in de flank met bewegingsdrang komt ChatGTP zelfs met een “differentiaaldiagnose”. Het zou weleens een niersteen, hart-, longprobleem of acute buik kunnen zijn. Inmiddels weten we ook dat AI-systemen, zoals de Large Language Models, nogal eens kunnen hallucineren. Dat houdt in dat ze als antwoord op de vraag met absolute onzin komen. Juist daardoor kunnen AI-systemen ook duidelijk schade berokkenen, vooral in gebieden waar mensen niet laagdrempelig bij zorgverleners de gegeneerde antwoorden kunnen laten verifiëren.
The Guardian
Het dagblad The Guardian plaatste op 2 januari 2026 een artikel over de gevaren van AI-systemen bij zorgvragen. Het meldde dat het vertrouwen op AI voor informatie over de gezondheidszorg tot desastreuze gevolgen kan leiden. Uit onderzoek van The Guardian naar vragen over de gezondheidszorg die aan Google AI Overviews werden gesteld, bleek dat onjuiste antwoorden vaak voorkwamen. Google AI gaf bijvoorbeeld onjuiste informatie over het juiste dieet voor kankerpatiënten, leverfunctietesten en de gezondheidszorg voor vrouwen. The Guardian publiceerde eerder, op 18 november 2025 een artikel waarin het duidelijk maakt dat AI-chatbots incorrecte en misleidende tips gaven bij financiële zaken, zoals investeringen, belasting en verzekeringen.
Er lopen trouwens in de V.S al zeker zeven rechtszaken over het gebruik van ChatGTP bij mensen met psychische problemen. ChatGTP zou bijgedragen hebben aan suïcides en ernstig mentaal dysfunctioneren.
ChatGTP Health
Het in de eerste alinea genoemde artikel over ChatGTP Health gaat over het initiatief van OpenAI om apart gezondheidszorgonderdeel van ChatGTP te maken. Ze zeggen dat ChatGTP Health samen met ruim 260 artsen verspreid over 60 landen en gedurende twee jaar is ontwikkeld en min of meer los staat van het gewone ChatGTP. Het is een aparte omgeving met “extra beschermingen” zoals encryptie en de belofte dat de data niet gebruikt worden om de applicatie te trainen. Gebruikers kunnen medische dossiers en smartwatches koppelen om gezondheidsadviezen te krijgen. Het bedrijf benadrukt dat Health niet bedoeld is om professioneel medisch advies te vervangen, maar werkt wel als zodanig.
Hallucinant
Voorstanders van het gebruik van ChatGTP en ChatGTP Health beweren dat iets beter dan niets is, vooral in gebieden die OpenAI “healthcare deserts” noemt. Toch blijft het gebruik ervan voor zorgdoeleinden uiterst gevaarlijk/schokkend, ja hallucinant.
Immers zonder goede medische kennis van zaken kan geen enkele gebruiker weten of de suggesties van ChatGTP zonder gevaar toe te passen zijn of dat het systeem hallucineert. De verantwoordelijkheid voor de gevolgen van foute adviezen is nergens belegd.
Precies hetzelfde zag ik bij het nu failliete Babylon Health dat ook een op AI-gebaseerde symptoomchecker(lees: diagnose-instrument) gebruikte. Daar bleek ook dat dat systeem volkomen zotte diagnosesuggestie deed, zoals hysterie i.p.v. hartinfarct bij acute pijn op de borst. De Engelse arts David Watkins stelde dat in 2021 al aan de kaak. Ik schreef er destijds over met de kop ”Symptoomchecker BabylonHow to bluff your way through Healthcare.”
Je moet goed bedenken dat als iets digitaals, vooral van grote tech-firma’s, gratis is, je dan betaalt met je data.
W.J. Jongejan, 12 januari 2026
Afbeelding van Tracey Wong via Pixabay



Plaats een Reactie
Meepraten?Draag gerust bij!