wat-gebeurt-er-als-ai-menselijke-therapeuten-gaat-vervangen-349840
©Spotlight

Kunnen machines denken? Het is een vraag die wiskundige Alan Turing voor het eerst stelde in 1950 en die de hoeksteen werd van zijn experiment, bekend als de Turingtest, waarbij een mens en een machine voor hetzelfde dilemma worden gesteld. Als de machine menselijk gedrag kon imiteren, werd hij als intelligent beschouwd, iets waarvan Turing voorspelde dat het in de komende decennia steeds vaker zou gebeuren. Maar kan AI en daarbij ChatGPT onze nieuwe therapeut worden?

AI en ChatGPT als therapeut

Hij hoefde niet lang te wachten: in de jaren zestig liet MIT-professor Joseph Weizenbaum de wereld kennismaken met Eliza, de eerste chatbot en een voorloper van de moderne AI. Eliza was geprogrammeerd om een psychotherapeut te imiteren. Maar Turing’s vraag voelt vandaag de dag actueler dan ooit, nu we ons bevinden op een verontrustend kruispunt: technologie ontwikkelt zich razendsnel en dringt door in alle aspecten van ons leven, terwijl de vangrails nog ontbreken om die ontwikkeling in goede banen te leiden.

Elke week onze beste artikelen in je inbox? Schrijf je hier in voor de Vogue-nieuwsbrief.

In 2025 is de oorspronkelijke vraag van Turing echter geëvolueerd naar iets anders: kunnen machines gevoelens voelen of begrijpen? Want nu steeds meer mensen zich tot AI en ChatGPT wenden in plaats van tot een menselijke therapeut, vragen we ze precies dat te doen.

De technologie heeft een lange weg afgelegd sinds Eliza. Nu heb je opties zoals Pi, dat zichzelf aankondigt als “je persoonlijke AI, ontworpen om ondersteunend en slim te zijn en altijd voor je klaar te staan”. Of Replika, “die er altijd is om te luisteren en te praten”. Er zijn ook Woebot, Earkick, Wysa en Therabot; de lijst gaat maar door als je gewoon op zoek bent naar iemand of iets om mee te praten. Sommige van deze chatbots zijn ontwikkeld met de hulp van professionals uit de geestelijke gezondheidszorg en andere niet, en het is moeilijk voor de gemiddelde cliënt om te onderscheiden welke welke is.

De redenen

Een van de redenen waarom meer mensen zich tot AI wenden voor geestelijke gezondheidszorg is de kostprijs; sessies met een menselijke therapeut (virtueel of persoonlijk) kunnen prijzig zijn en worden vaak niet gedekt door de verzekering of het kost veel moeite het geld terug te krijgen. Daardoor heeft de jongere generaties een echte therapeut ingeruild voor een robot.

En dan is er nog het stigma rond het zoeken naar geestelijke gezondheidszorg. “Veel families, of het nu door cultuur of religie komt of gewoon door ingesleten overtuigingen, geven stigmatiserende opvattingen over therapie en geestelijke gezondheid door van generatie op generatie”, zegt Brigid Donahue, erkend klinisch maatschappelijk werker en EMDR-therapeut in LA. En dan hebben we het nog niet eens over de enorme wachttijden voor een therapeut in Nederland.

En dan is er nog het gemak: Deze nieuwe golf van hulpmiddelen voor geestelijke gezondheid is beschikbaar volgens jouw agenda. (Dat is zelfs de slogan van Woebot.) “Je AI-therapeut zal nooit op vakantie gaan, nooit afbellen of een sessie annuleren”, zegt Vienna Pharaon, een huwelijks- en gezinstherapeut en auteur van The Origins of You. “Ze zijn 24/7 beschikbaar. Het creëert een perfecte ervaring waarin je nooit teleurgesteld wordt. Maar de waarheid is dat je niet geneest door perfectie.”

Het helen komt vaak met de breuken, wrijvingen en spanningen van een therapiesessie die niet geautomatiseerd is. “Als je imperfectie en menselijke gebreken en de natuurlijke teleurstellingen die zullen optreden elimineert, beroven we cliënten echt van de ervaring om door uitdagingen en conflicten heen te gaan”, zegt Pharaon. De zogenaamde imperfecties van een menselijke therapeut kunnen voor veel cliënten juist geruststellend zijn. “Voor iedereen die is opgegroeid met de intense druk om perfect te zijn, kunnen ‘fouten’ van een therapeut juist corrigerend werken”,Menor voegt Donahue toe.

Vertrouwen in technologie

Een van de belangrijkste redenen waarom jongere generaties AI gebruiken voor therapie, is dat het voor hen een natuurlijke keuze is om te vertrouwen op technologie. “Omdat ze zijn opgegroeid met een soort apparaat als vijfde ledemaat, is hun eerste instinct voor alles hun telefoon”, zegt Alyssa Petersel, gediplomeerd maatschappelijk werker en oprichter en CEO van MyWellbeing, een dienst die mensen helpt een therapeut te vinden. En, zegt Donahue, Gen Z bracht ook vormende jaren door tijdens de pandemie, verwijderd van persoonlijke interacties en vertrouwend op smartphones en sociale media voor connectiviteit, dus AI-therapie lijkt een natuurlijke progressie. Het eerste instinct van deze generatie is vaak om zich online te wenden, niet tot andere mensen.

De reden waarom dit instinct bijzonder verontrustend is voor therapeuten, is dat jongere mensen simpelweg emotioneel kwetsbaarder zijn. Dat heeft veel te maken met hun ontwikkelingsfase, zegt Petersel: Ze hebben nog niet het deel van hun hersenen ontwikkeld dat besluitvorming ondersteunt die onafhankelijk is van de mening van anderen. Voeg daar een zeer overtuigend apparaat aan toe dat zelfverzekerd advies geeft dat jonge mensen gretig aannemen, en je hebt een perfecte storm.

De risico’s

In de meest extreme gevallen heeft die storm ertoe geleid dat gebruikers die interactie hebben met chatbots anderen of zichzelf schade hebben veroorzaakt. Twee Texaanse ouders hebben een rechtszaak aangespannen tegen Character.AI (een app waarmee gebruikers fictieve personages kunnen bouwen) nadat het gebruik ervan door hun kinderen verwoestende gevolgen had gehad. Hoewel dit extreme voorbeelden zijn, is er een risico voor elke jongere die AI op therapeutische wijze gebruikt.

“Je verliest de kracht en het vermogen om zelf te leren, te testen en beslissingen te nemen, en jongere mensen bevinden zich in een bijzonder kwetsbare positie omdat ze simpelweg meer geloven in technologie”, zegt Petersel, die dit contrasteert met mensen boven de 40 die, door meer levenservaring (waarvan een deel zonder apparaten), meer ruimte in hun denken hebben en een gezonde hoeveelheid scepsis.

De voordelen

Maar zelfs in de context van geestelijke gezondheid is AI niet alleen maar slecht. “We moeten echt de risico’s en de beperkingen begrijpen, maar ook de voordelen, want er zijn er zeker veel”, zegt Pharaon. Een daarvan is dat AI snel en efficiënt medische dossiers en documenten kan beoordelen. Petersel geeft een voorbeeld van het invoeren van pagina’s en pagina’s aan stream-of-consciousness dagboekaantekeningen in AI en vervolgens de vraag: “Kun je me in een paar zinnen vertellen wat je denkt dat mijn mening is op basis van al deze aantekeningen?”.

Maar AI kan alleen zo goed zijn als de aanwijzingen die we geven. Petersel merkt bijvoorbeeld op dat als je de AI-chatbot vertelt dat je wilt werken aan het ontwikkelen van dankbaarheid, maar niet zeker weet hoe, deze terug kan komen met 10 suggesties. Maar wat als één suggestie is om een blokje om te lopen en het blok waar je woont toevallig onveilig is? Of wat als een andere suggestie is om een hand uit te steken naar je vader en je hebt een heel gecompliceerde relatie met hem? Je moet het onderscheidingsvermogen hebben om dat oordeel zelf te vellen, zegt Petersel. In een experiment dat eerder dit jaar werd gepubliceerd in PLOS Mental Health werd ChatGPT tegenover een menselijke therapeut geplaatst; het bleek dat deelnemers zelden het verschil konden zien tussen antwoorden geschreven door ChatGPT en die van een therapeut; de antwoorden van ChatGPT werden ook hoger gewaardeerd.

Isolatie

Hoewel studies als deze overwegingen oproepen voor de integratie van AI in therapeutische settings met de juiste grenzen en uitgebreid toezicht, zijn er natuurlijk nog steeds zorgen. Chatbots begrijpen nuance niet, zegt Pharaon, en kunnen ook niet dezelfde context voor een situatie bieden die een echte therapeut kan bieden. Er zit ook een onmiddellijkheid in de AI-benadering die, hoewel aantrekkelijk in theorie, zegt Donahue, het niet mogelijk maakt om te genezen van verdriet of trauma op een geschikte menselijke tijdlijn. Hoewel het AI-advies op het juiste moment kan aanvoelen, wat doet deze benadering op de lange termijn voor cliënten? “Als we dit niveau van inzicht in onze zak hebben, wat voor invloed heeft dat dan op ons eigen vermogen om in onszelf te kijken en een weloverwogen beslissing te nemen op basis van onze eigen ervaringen en waarden?” vraagt Petersel zich af.

Is AI en ChatGPT  als therapeut slim?

Het opbouwen van deze relaties met AI en het zoeken van troost bij een chatbot in plaats van een echt persoon kan een gevoel van isolatie versterken en ons vermogen om IRL contact te maken beïnvloeden. Terwijl de bedreiging van kunstmatige intelligentie voor de menselijke intelligentie steeds vaker wordt besproken (vooral in de context van onderwijs en hoe deze technologie ons vermogen om te leren en kritisch te denken decimeert), is het net zo belangrijk om na te denken over de gevaren die het met zich meebrengt voor menselijke verbinding. En verbondenheid is iets dat centraal staat in therapie en de effectiviteit ervan.

Mensen hebben mensen nodig

“Op chemisch, fysiek en energetisch niveau is de aanwezigheid van een ander mens een groot deel van de zorg”, zegt Petersel, ”zelfs virtueel.” Die verbinding kan vooral krachtig zijn voor mensen die zich niet verbonden voelen met hun eigen emotionele respons, zegt Donahue. Hoewel er een therapeutische plek kan zijn voor AI, zou het volgens deskundigen nooit iemands enige zorgverlener moeten zijn. Iets om te onthouden nu de regering in Amerika carte blanche blijft geven aan grote techbedrijven. (Onlangs hebben de Republikeinen stiekem een formulering opgenomen in een wetsvoorstel dat staten verbiedt om AI te reguleren, in welke hoedanigheid dan ook, voor een heel decennium).

AI is niet alleen goed of slecht, maar het zal nooit de waarde van een menselijke relatie in therapie kunnen vervangen. “AI doet iemand echt tekort in het ervaren van de schoonheid en complexiteit van groeien en leren door menselijke relaties”, zegt Donahue. “We hebben menselijke connecties nodig om te overleven. Mensen hebben mensen nodig, punt uit.”

Dit artikel is oorspronkelijk gepubliceerd door Vogue US.