Als het gaat om het vergelijken van reacties die door psychotherapeuten zijn geschreven met die van ChatGPT, worden de laatste over het algemeen hoger beoordeeld, volgens een onderzoek dat op 12 februari 2025 is gepubliceerd in het open access-tijdschrift PLOS Mental Health door H. Dorian Hatch, van de Ohio State University en medeoprichter van Hatch Data and Mental Health, en collega’s
Of machines therapeuten kunnen zijn, is een vraag die meer aandacht heeft gekregen gezien enkele voordelen van het werken met generatieve kunstmatige intelligentie (AI). Hoewel eerder onderzoek heeft aangetoond dat mensen moeite kunnen hebben om het verschil te zien tussen reacties van machines en mensen, suggereren recente bevindingen dat AI empathisch kan schrijven en de gegenereerde inhoud wordt hoog gewaardeerd door zowel professionals in de geestelijke gezondheidszorg als gebruikers van vrijwillige diensten, in die mate dat het vaak de voorkeur krijgt boven inhoud die door professionals is geschreven.
In hun nieuwe onderzoek met meer dan 800 deelnemers lieten Hatch en collega’s zien dat, hoewel er verschillen in taalpatronen werden opgemerkt, individuen zelden konden identificeren of reacties waren geschreven door ChatGPT of door therapeuten toen ze 18 relatietherapie-vignetten kregen. Deze bevinding weerspiegelt de voorspelling van Alan Turing dat mensen het verschil niet zouden kunnen zien tussen reacties die door een machine waren geschreven en die door een mens waren geschreven. Bovendien werden de reacties die door ChatGPT waren geschreven over het algemeen hoger beoordeeld in de kernprincipes van psychotherapie.
Verdere analyse onthulde dat de reacties die door ChatGPT werden gegenereerd over het algemeen langer waren dan die welke door de therapeuten waren geschreven. Na correctie voor lengte, bleef ChatGPT reageren met meer zelfstandige naamwoorden en bijvoeglijke naamwoorden dan therapeuten. Gezien het feit dat zelfstandige naamwoorden kunnen worden gebruikt om mensen, plaatsen en dingen te beschrijven, en bijvoeglijke naamwoorden kunnen worden gebruikt om meer context te bieden, zou dit kunnen betekenen dat ChatGPT uitgebreider contextualiseert dan de therapeuten. Uitgebreidere contextualisering kan ertoe hebben geleid dat respondenten de ChatGPT-reacties hoger hebben beoordeeld op de gemeenschappelijke factoren van therapie (componenten die gemeenschappelijk zijn voor alle therapiemodaliteiten om de gewenste resultaten te bereiken).
Volgens de auteurs kunnen deze resultaten een vroege indicatie zijn dat ChatGPT het potentieel heeft om psychotherapeutische processen te verbeteren. In het bijzonder kan dit werk leiden tot de ontwikkeling van verschillende methoden voor het testen en creëren van psychotherapeutische interventies. Gezien het toenemende bewijs dat suggereert dat generatieve AI nuttig kan zijn in therapeutische settings en de waarschijnlijkheid dat het eerder dan later in therapeutische settings kan worden geïntegreerd, roepen de auteurs experts op het gebied van geestelijke gezondheid op om hun technische geletterdheid uit te breiden om ervoor te zorgen dat AI-modellen zorgvuldig worden getraind en begeleid door verantwoordelijke professionals, waardoor de kwaliteit van en toegang tot zorg wordt verbeterd.
De auteurs voegen toe: “Sinds de uitvinding van ELIZA bijna zestig jaar geleden, hebben onderzoekers gedebatteerd over de vraag of AI de rol van een therapeut zou kunnen spelen. Hoewel er nog steeds veel belangrijke vragen zijn, geven onze bevindingen aan dat het antwoord “Ja” kan zijn. We hopen dat ons werk zowel het publiek als geestelijke beoefenaars aanzet tot het stellen van belangrijke vragen over de ethiek, haalbaarheid en bruikbaarheid van het integreren van AI en geestelijke gezondheidszorg, voordat de AI-trein het station verlaat.”