
ChatGPT als zelfdiagnose-tool: vloek of zegen?
"Volgens ChatGPT kan ik een hersentumor hebben."
De doktersassistente hoort het.
Ademt even in.
En begint opnieuw uit te leggen.
Dit is geen uitzondering meer.
Dit is dinsdag.
Patiënten komen de praktijk binnen met een uitgeprinte AI-diagnose in hun hoofd.
Soms rustig. Soms zeker van hun zaak. Soms in paniek.
En de doktersassistente staat als eerste in de vuurlinie.
Is ChatGPT als zelfdiagnose-tool echt zo erg?
Of heeft het ook iets goeds gebracht?
Patiënten komen binnen met vaststaande overtuigingen.
De triage wordt moeilijker.
Een gesprek dat normaal twee minuten duurt, kost nu tien.
En de doktersassistente moet niet alleen medisch schakelen .
Maar ook emoties managen, verwachtingen bijstellen en toch professioneel blijven.
Terwijl de wachtkamer vol zit.
Aan de andere kant, zijn patiënten die ChatGPT gebruiken betrokken bij hun eigen gezondheid.
Ze komen niet meer met vage klachten, ze komen met vragen.
Ze hebben nagedacht. Uitgezocht. Zichzelf een spiegel voorgehouden.
En ja, soms zitten ze er compleet naast.
Het echte probleem is dat niemand patiënten heeft geleerd hoe ze AI-informatie moeten gebruiken.
Geen filter. Geen context. Geen onderscheid tussen “mogelijk” en “waarschijnlijk”.
Hoe ga jij om met een patiënt die met een ChatGPT-diagnose binnenkomt?
Groetjes, Vinaij
PS: Bekijk direct wat jouw collega's in het huisartsenvak hebben geantwoord via de volgende link: https://www.linkedin.com/in/vinaijsewradj/











