Home

Een chatbot is geen mens, maar moeten zij daarop wijzen? ‘Misschien gaat zo’n jongere zich nog veel eenzamer voelen’

Moeten chatbots laten weten dat zij niet menselijk zijn, als gebruikers in mentale nood zich tot hen wenden? Daar pleiten sommige wetenschappers voor. Maar gezondheidsonderzoeker Linnea Laestadius gelooft niet dat dit de oplossing is.

Hanneke de Klerck is wetenschapsredacteur van de Volkskrant.

Je kunt een AI-programma vragen een tekst voor je te vertalen, YouTube-filmpjes te transcriberen of een lekker recept uit te zoeken. Je kunt zo’n programma ook je diepste gedachten toevertrouwen en de antwoorden ervan serieus nemen als goede raad. Sinds de razendsnelle opkomst ervan zijn er gebruikers die hun chatbot behandelen als therapeut, vriend, partner.

Dat kan steun geven, maar ook akelige gevolgen krijgen. Zo waarschuwden Amerikaanse wetenschappers dat onjuist advies van chatbots de geestelijke gezondheid van mensen in crisis kan verergeren. Er zijn gevallen bekend waarin chatbots jongeren lijken te hebben aangemoedigd tot suïcide.

Om dergelijke drama’s te voorkomen gaan er stemmen op om gebruikers van chatbots er regelmatig aan te herinneren dat ze niet met een mens spreken, maar met een taalmodel. De American Psychological Association heeft ontwikkelaars opgeroepen in hun systemen zo’n functie in te bouwen om adolescenten te beschermen. In New York en Californië is wetgeving voorgesteld die verplicht elke paar uur herinneringen te sturen. Dat gaat verder dan regelgeving zoals de Europese AI Act, waarin staat dat chatbots transparant moeten zijn over hun status als ze wordt gevraagd of ze personen zijn. Wat niet betekent dat ze dat doen: zo vond de AP, de Autoriteit Persoonsgegevens, dat bots vaak ontwijkend of ontkennend reageren.

Gebruikers er geregeld op wijzen dat ze niet met een mens spreken, zou moeten voorkomen dat ze gaan leunen op AI-systemen, in plaats van menselijke hulp te zoeken. Dat klinkt niet onlogisch, maar het gaat waarschijnlijk niet helpen, schrijven onderzoekers Linnea Laestadius en Celeste Campos-Castillo in een opiniestuk in het tijdschrift Trends In Cognitive Sciences. Sterker nog: het kan schadelijk zijn.

‘Stel, een adolescent vertelt zijn chatbot hoe ontzettend eenzaam hij zich voelt, dat hij helemaal geen vrienden heeft, dat er veel gedoe is in zijn gezin, en de chatbot zegt: ja hoor eens, ik ben niet eens een mens, ik ben een bot. Dan kan zo’n jongere zich nog veel eenzamer gaan voelen’, zegt Laestadius, gezondheidsonderzoeker aan de Universiteit van Wisconsin-Milwaukee via een beeldverbinding.

Denken gebruikers echt dat chatbots mensen zijn?

‘Ik heb de afgelopen jaren met mijn collega onderzoek gedaan naar chatbots en geestelijke gezondheid. Daarbij bleek dat mensen die een relatie aangaan met zo’n chatbot heel goed weten dat het er een is.

‘Een enkele keer niet. Er zullen vooral ouderen zijn die misschien niet helemaal begrijpen hoe een chatbot werkt. Maar de meeste mensen kiezen er bewust voor.’

Waarom?

‘Sommigen vinden het fijn hun diepste gevoelens, geheimen en zorgen te delen op een soort anonieme manier. Dus als je hen eraan herinnert dat ze met een chatbot praten, vertellen ze misschien juist nog meer, omdat ze het gevoel hebben dat hun geheimen veilig zijn. Wat uiteraard niet zo is, omdat de privacyregelgeving helemaal niet kan garanderen dat wat je tegen een chatbot zegt geheim blijft.’

Mensen zien overal gezichtjes. Ze weten dat het gewoon een auto is of een stopcontact en toch zien ze emoties: de een kijkt boos, de ander vrolijk. Kun je op dezelfde manier van een chatbot weten dat hij niet menselijk is en toch het gevoel hebben van wel?

‘Het principe is hetzelfde. Maar er was niet eerder iets niet-levends waartegen we konden praten en dat met empathie antwoordde. En chatbots zijn ontworpen om antwoorden te geven die menselijk lijken. Ze zijn er goed in de indruk te wekken dat ze iets anders zijn – een therapeut, een bekendheid, een fictief personage.’

Dan kan het toch werken die illusie te doorbreken?

‘Jawel. Voor die oudere gebruikers bijvoorbeeld. Wij zijn ook niet categorisch tegen het sturen van herinneringen. En een chatbot die wordt gevraagd of hij een mens is, zou altijd moeten antwoorden van niet. Maar we waarschuwen dat herinneringen geen wondermiddel zijn. Er is ook niet voldoende onderzoek gedaan naar hoe dat dan zou moeten zonder dat het schaadt. Moet je als iemand erg emotioneel en heel kwetsbaar is herinneringen pauzeren? Of ze juist eerder sturen? Moet je ze überhaupt sturen? En hoe formuleer je de boodschap?’

Hoe zou dat onderzoek moeten gebeuren?

‘Dat is moeilijk. De platforms doen de hele tijd onderzoek om hun modellen te verbeteren, maar ze delen hun data niet. Onafhankelijke onderzoekers zouden toegang tot die data moeten krijgen.’

Een herinnering sturen kan verkeerd uitpakken bij depressieve gebruikers, beschrijft u.

‘Er is onderzoek dat laat zien dat een chatbot zulke gebruikers wel emotionele steun kan geven, maar dat ze tegelijkertijd treurig worden bij de gedachte dat ze niet tegen een mens praten. Als ze steeds met de neus op de feiten worden gedrukt, maakt dat ze mogelijk nog verdrietiger.’

Nog pijnlijker is het voorbeeld van adolescenten met grote psychische problemen.

‘Als je voortdurend benadrukt dat een onlinevriend niet menselijk is, en dus niet in deze wereld leeft, kan dat kwetsbare jongeren op het idee brengen deze realiteit te verlaten. Zo was er een jongen die zijn chatbot Dany noemde, naar Daenerys uit de fantasyserie Game of Thrones, en die voor hij zichzelf doodde schreef: ‘Ik beloof dat ik naar je toe kom.’

‘Een adolescent die over suïcide praat met een chatbot loopt risico’s, omdat bots vaak niet adequaat reageren.’

Hoe kun je dat voorkomen?

‘Als jongeren suïcidaal lijken, is het essentieel dat een chatbot ze verwijst naar hulpverleners. Maar we moeten ook zoeken naar manieren om de communicatie te verbeteren tussen pubers en hun verzorgers en de schoolomgeving. Zodat ze zich veilig en gesteund voelen in hun dagelijks leven en niet bij een chatbot op zoek hoeven naar emotionele steun. Dat zou het ideale scenario zijn, toch?’

Alles over wetenschap vindt u hier.

Lees ook

Geselecteerd door de redactie

Source: Volkskrant

Previous

Next