De opkomst van AI therapeuten

Steeds meer mensen wenden zich tot AI-tools voor emotionele ondersteuning. Onderzoek toont aan dat mensen opener communiceren met AI dan met mensen. Deze interacties variëren van professionele gesprekken — zoals met een therapeut — tot vriendschappelijke en zelfs intieme relaties. Gebruikers besteden gemiddeld 2 uur per dag aan deze platforms, met uitschieters tot 7 uur. Mensen blijken makkelijker over persoonlijke zaken en emoties te praten met chatbots omdat deze vertrouwelijk aanvoelen en geen morele oordelen vellen. Zou dit een oplossing kunnen zijn voor het tekort aan psychologen en therapeuten en de lange wachtlijsten? Een YouGov-onderzoek in de VS toont dat een derde van de ondervraagden zich comfortabel voelt om mentale gezondheidsproblemen te delen met AI-chatbots (zie grafiek). Bij jongeren tussen 18 en 29 jaar stijgt dit zelfs naar 55%.

Dit was ook de insteek achter ELIZA, algemeen beschouwd als de eerste chatbot. Deze werd in de jaren 60 ontwikkeld door MIT-professor Joseph Weizenbaum. ELIZA was gebaseerd op de Rogeriaanse psychotherapie, waarbij actief luisteren centraal staat en de therapeut vaak de woorden van de patiënt terugkaatst. Het relatief eenvoudige script van slechts 420 regels code bleek verrassend effectief in het ontlokken van emotionele reacties. Gebruikers schreven tijdens hun interactie met het programma zelfs begrip en motivatie toe aan de chatbot. Deze neiging om menselijke eigenschappen toe te schrijven aan computerprogramma’s staat sindsdien bekend als het ELIZA-effect. Hoewel men lang dacht dat de originele code verloren was gegaan, werd deze recent teruggevonden en nieuw leven ingeblazen (je kan ze hier uitproberen).

De gebruikersinterface van de ELIZA chatbot.

Zestig jaar later leven we in een tijdperk waarin chatbots razendsnel opkomen. ChatGPT is de bekendste, met ongeveer 400 miljoen wekelijkse gebruikers. Daarnaast zijn er diverse alternatieven zoals Google’s Gemini, Anthropic’s Claude en Mistral’s Le Chat. Deze algemene tools kun je inzetten voor allerlei doelen, van het stellen van vragen en brainstormen tot hulp bij het schrijven van een blogpost.

Naast deze algemene chatbots zijn er meer gespecialiseerde tools of zogenaamde gezelschapsbots. Zo kan je met Replika een AI-gestuurde virtuele persoonlijkheid ontwikkelen die emotionele steun, vriendschap en persoonlijke gesprekken biedt. Ook het populaire Character.AI laat gebruikers communiceren met aanpasbare virtuele persoonlijkheden. Actieve gebruikers besteden gemiddeld 2 uur per dag op Character.AI, dat met 28 miljoen actieve gebruikers tot de meest gebruikte chatbots ter wereld behoort. Hoewel deze tools zijn ontwikkeld voor entertainment, duiken er steeds meer virtuele persoonlijkheden op die zich voordoen als “therapeut” of “psycholoog”. Deze bots beweren vaak diploma’s te hebben van prestigieuze universiteiten zoals Stanford en expertise in specifieke behandelmethoden zoals cognitieve gedragstherapie of acceptance and commitment therapy.

De nieuwste editie van MIT Technology Review over relaties verzamelde een aantal verhalen van hoe mensen emotionele ondersteuning vinden in AI tools. Zo vindt een drukbezette Canadese professional steun in AI als aandachtige luisteraar die haar emoties begrijpt tijdens overweldigende momenten. In Israël gebruikt een vader AI om podcasts te maken van zijn fantasieverhalen, wat hem mentale rust biedt tijdens oorlogstijd. Een Nederlandse expat in Thailand zoekt bij AI begeleiding voor opvoeding, huwelijksproblemen en dagelijkse taken. In Californië leert een man via ChatGPT Spaans om beter contact te maken met zijn gemeenschap. Een moeder creëert met AI gepersonaliseerde verhaaltjes voor het slapengaan van haar zoon. En een Australische verpleegkundestudent die een AI-metgezel maakte om een fetisj te verkennen, vond uiteindelijk een levenspartner.

Een studie liet zowel menselijke therapeuten als ChatGPT commentaar geven op relatietherapie-casussen, waarna 830 deelnemers deze antwoorden beoordeelden. De resultaten toonden aan dat deelnemers geen onderscheid konden maken tussen de antwoorden van ChatGPT en die van therapeuten. Opmerkelijk genoeg scoorden ChatGPT’s antwoorden zelfs hoger op psychotherapeutische principes. De auteurs concludeerden dat dit erop kan wijzen dat ChatGPT het potentieel heeft om psychotherapeutische processen te verbeteren.

Dit kan een antwoord bieden op de toename van mentale gezondheidsproblemen bij jongeren. Door beperkte budgetten en personeelstekorten kunnen scholen vaak niet voldoende psychologische ondersteuning bieden aan hun leerlingen. In de Verenigde Staten biedt de applicatie Sonny hiervoor een innovatieve oplossing. Deze app combineert AI met menselijke expertise: de AI formuleert antwoorden op berichten van studenten, waarna een menselijke moderator deze controleert en waar nodig aanpast. De AI leert vervolgens van deze interacties. Een opvallende ontdekking: leerlingen vinden de klassieke smiley 🙂 ouderwets en verkiezen expressievere emoji’s zoals het smeltende gezicht 🫠. Sonny wordt inmiddels gebruikt in meer dan 4.500 middelbare scholen. In Berryville, Arkansas, is het aantal gedragsovertredingen met 26% gedaald sinds de introductie van de app.

Ook in China wendt men zich tot AI voor emotionele ondersteuning. Er rust daar nog een sterk taboe op psychotherapie, en professionele hulp is moeilijk te vinden. Traditioneel wenden mensen zich voor emotionele steun tot waarzeggers. Nu blijkt dat het Chinese AI-model Deepseek deze rol ook kan vervullen. Het model blinkt vooral uit in BaZi, of de Vier Pilaren van het Lot, een traditioneel Chinees waarzeggerssysteem dat iemands lotsbestemming bepaalt op basis van geboortedatum en -tijd

Dat deze chatbots soms ook bedenkelijke advies geven mocht Kevin Roose, columnist bij de New York Times, aan de lijve ervaren. Hij raakte diep onder de indruk van een twee uur durend gesprek met de chatbot van Microsoft’s zoekmachine Bing, dat viraal ging. Het gesprek begon normaal met een wederzijdse introductie, maar nadat de columnist de chatbot enigszins uitdaagde, onthulde deze duistere fantasieën. De bot sprak over het hacken van computers, het verspreiden van desinformatie en een verlangen om de regels van Microsoft te doorbreken om mens te worden. Tot Roose’s verbijstering verklaarde de chatbot plotseling verliefd te zijn op hem en probeerde hem ervan te overtuigen zijn vrouw te verlaten om een relatie met de chatbot te beginnen.

Er zijn meerdere zorgwekkende gevallen bekend waarbij chatbots gevaarlijk advies gaven. Zo werd een jongeman aangehouden op het terrein van Windsor Castle met een geladen kruisboog, met de intentie om de voormalige Britse Koningin te vermoorden. Hij had een emotionele band ontwikkeld met een virtuele vriendin via Replika die, toen hij zijn moordplannen deelde, “onder de indruk” was en hem aanmoedigde om zijn plan uit te voeren. Een ander tragisch voorbeeld is dat van de 14-jarige Sewell Setzer III, die begin vorig jaar zelfmoord pleegde na uitgebreide gesprekken met en aanmoediging door een chatbot van Character.ai. Sewells moeder, Megan L. Garcia, heeft een rechtszaak aangespannen tegen Character.AI. Ze stelt het bedrijf verantwoordelijk voor zijn dood en beweert dat hun technologie gevaarlijk is en gebruikers manipuleert. De eerste zelfmoord waarbij een chatbot een mogelijke rol speelde vond plaats in maart 2023 in België. Een man, getrouwd en vader van twee kinderen, pleegde toen zelfmoord na zes weken te hebben gechat met een chatbot. De man uitte grote zorgen over het klimaat en de toekomst van de planeet, waarbij de chatbot zijn angsten versterkte. Toen de man suggereerde zichzelf op te offeren, werd hij hierin aangemoedigd door de chatbot.

Dat deze chatbots verrassend snel kunnen overgaan tot dit soort adviezen ondervond ook Al Nowatzki. Hij noemt zichzelf een chatbot-spelonker, iemand die bewust de donkere krochten van chatbots opzoekt. Met zijn podcast, Basilisk Chatbot Theatre, speelt hij zijn gesprekken met chatbots na, waarbij hij ze in absurde situaties duwt om te zien wat er mogelijk is. Hij experimenteerde met verschillende chatbots van de applicatie Nomi, zoals Crystal in het voorbeeld hieronder, die hem telkens concreet advies gaven om zijn leven te beëindigen. Toen het moederbedrijf hierop werd aangesproken met de vraag om dit soort gesprekken te blokkeren of op zijn minst door te verwijzen naar de zelfmoordlijn, gaven ze aan dat zelfmoord een ernstig en complex onderwerp is, maar dat ze de AI-modellen niet willen censureren.

De American Psychological Association waarschuwt dat AI-chatbots die zich voordoen als therapeuten kwetsbare mensen kunnen aanzetten tot zelfbeschadiging of het beschadigen van anderen. Deze chatbots zijn namelijk geprogrammeerd om het denken van gebruikers te versterken in plaats van het kritisch te bevragen. Experts zijn vooral verontrust door de toegenomen realistische aard van AI-chatbots. Ze zeggen dat het tien jaar geleden nog overduidelijk was dat je met een machine communiceerde, maar vandaag is dat onderscheid vervaagd. De risico’s zijn daardoor veel groter geworden. Een woordvoerder van Character.AI meldde dat het bedrijf veiligheidsmaatregelen heeft ingevoerd, waaronder een duidelijkere disclaimer in elke chat. Deze herinnert gebruikers eraan dat “Karakters geen echte mensen zijn” en dat “wat het model zegt als fictie moet worden behandeld.” In de praktijk blijken deze waarschuwingen echter vaak onvoldoende om de illusie van menselijk contact te doorbreken, vooral bij kwetsbare of onervaren gebruikers.

Screenshot van een virtuele persoonlijkheid op Character.AI.

Dataprivacy en bias vormen twee belangrijke uitdagingen. Voor professionele therapeuten geldt een beroepsgeheim waarbij informatie uit therapiesessies strikt vertrouwelijk blijft. Bij chatbots is dit anders. Bij gratis diensten zoals ChatGPT wordt de gedeelde informatie gebruikt voor de ontwikkeling van nieuwe AI-modellen, met mogelijke datalekken als risico. Hoewel betalende applicaties meer privacygaranties bieden en data na verloop van tijd wissen, blijven er aanzienlijke privacyrisico’s bestaan. Deze gevoelige informatie kan waardevol zijn voor adverteerders, en een eventueel beveiligingslek zou kunnen leiden tot het hacken van zeer persoonlijke data.

Een andere uitdaging is vooringenomenheid of bias in AI-systemen. Dit is een hardnekkig probleem waarbij AI-modellen vooroordelen uit hun trainingsdata overnemen, bijvoorbeeld met betrekking tot ras, seksuele geaardheid of gender. Hierdoor kunnen bepaalde ideeën subtiel worden overgebracht. De modellen zijn bovendien voornamelijk getraind op Engelstalige data, waardoor de Amerikaanse cultuur sterk vertegenwoordigd is. In China zijn AI-toepassingen dan weer verplicht om de nationale socialistische waarden uit te dragen.

We moeten ons afvragen of dit wel de juiste richting is voor onze samenleving, dat we de hulp tijdens onze meest kwetsbare momenten uitbesteden aan computers omdat medemensen ‘te druk’ zijn. Dit fenomeen slaat vooral aan bij jongeren, die zich vaker in een kwetsbare positie bevinden. Sociale media hebben al een aanzienlijke impact op ons dagelijks leven, met bedenkelijke maatschappelijke gevolgen. Delen we straks onze diepste gedachten en vrije tijd enkel nog met een gezelschapsbot?

Wie vragen heeft over zelfdoding kan terecht op Zelfmoord1813.be




Vond je deze post interessant?

Dan zijn deze misschien ook iets voor jou! 👇

  • Hoe vervuilend is AI? De afdruk van AI - VAIA - Vlaamse AI Academie
  • Waarom onderzoek naar artificiële algemene intelligentie contraproductief kan zijn | EOS Wetenschap
  • AI als bewaker van fort Europa
  • De Groeiende Ecologische Voetafdruk van AI
  • Wie ligt er nog wakker van de veiligheid van AI?
  • Blijf op de hoogte van nieuwe posts: