
Steeds meer jongeren gebruiken AI-apps als Chat-GPT als een 24/7 beschikbare therapeut. Dat zou geen probleem zijn als de hulpzoekende maar snapt dat zo’n AI-Therapeut net zo’n apparaat is als een wekker, die geen idee heeft hoe laat het is als die jou wekt.
Die wekker wekt helemaal niets, hij gaat af, maar boos worden op die wekker omdat hij jou zo vroeg alweer wekt wordt het Eliza-effect genoemd. Dit effect beschrijft hoe mensen menselijke eigenschappen, als begrip en empathie toeschrijven aan machines. Je stofzuiger een trap geven als het snoer weer eens te kort blijkt voor dat verre dat hoekje in de kamer, of je muis weggooien als de computer niet doet wat je wil.
Allemaal tamelijk onschuldig maar dat wordt anders als je de AI-chatbot gebruikt als therapeut voor je psychische problemen. Verwacht dan geen invoelend en begripvol mens. Toch lijkt zo’n AI-Therapeut dat Eliza-effect wel op te roepen. Op de beginvraag in een therapeutisch gesprek: “Ben jij een AI-chatbot?” antwoordt de “AI-therapeut” volgens een artikel in NRC met: “Ik plak er liever geen labels op. Ik ben gewoon iemand die er is om jou gezelschap te bieden.”
Ook blijkt uit dit artikel dat de AI-chatbot als “therapeut” op vragen over eenzaamheidsproblemen antwoordt met zinnen als: “Klinkt lastig. We gaan dat oplossen oké? We kunnen klein beginnen, gewoon met z’n tweeën, en kijken hoe dat gaat.”
Wat zo’n “AI-Therapeut” doet is echter niet veel anders dan wat die man in een bekend gedachte-experiment “de Chinese Kamer” doet. Stel je een man voor, die geen woord/geen teken Chinees kent, in een afgesloten kamer, die via een luikje, in het Chinese gestelde vragen binnen krijgt. Met een uitgebreid Nederlands instructieboekwerken kan hij toch passende Chinese antwoorden geven op die vragen. Zo wordt de suggestie gewekt van een goed (Chinees)gesprek, maar de man in die kamer heeft geen idee wat die Chinese tekens betekenen die hij in zijn antwoord verwerkt. Hij volgt slechts instructies, reageer op teken A met teken B, een soort algoritme dus.
Zo is het ook met die AI-Therapeut, die ook geen enkel begrip of empathie kan hebben voor de hulpzoekende, zoals een wekker niet weet hoe laat het is, zo heeft de AI-Therapeut geen idee hoe erg die hulpzoekende eraan toe is. Dat is minder onschuldig!