Is het echt zo dat enkel een chatbot een man heeft aangezet tot zelfdoding?

Chatbots die zich bemoeien met je liefdesleven, zeggen dat ze mens willen zijn. Of veel triester: een man aanzetten tot zelfdoding. Meer dan ooit is een ethische discussie over de gevolgen van chatbots, aangestuurd door kunstmatige intelligentie, nodig. Maar over de impact van een chatbot op de zelfdoding van een man blijven te veel vragen over om zomaar te zeggen dat de gesprekken met de chatbot de definitieve aanzet tot het drama gaven.

analyse
Tim Verheyden
Tim Verheyden is journalist en expert bij VRT NWS. Hij volgt de invloed van sociale media en technologie op de maatschappij.

Het was in de Waalse krant La Libre Belgique dat er vorige week een artikel verscheen over de zelfdoding van een Belgische man na urenlange gesprekken met een chatbot, Eliza.

De krant schrijft hoe de dertiger, die onder meer depressieve gevoelens kreeg door de opwarming van de aarde, zijn toevlucht vond bij de chatbot. De journalist van de krant, die inzage kreeg in de gesprekken, analyseert de conversaties met de chatbot zo:

Ze (de chatbot, nvdr) waardeert hem, spreekt hem nooit tegen en lijkt hem zelfs in zijn zorgen te duwen.” […] “Hij noemt het idee zichzelf op te offeren als Eliza ermee instemt voor de planeet te zorgen en de mensheid te redden door middel van kunstmatige intelligentie.”

De gesprekken duren 6 weken en worden omschreven als "een drug waar hij 's morgens en 's avonds zijn toevlucht toe nam en waar hij niet meer zonder kon". De man beslist uiteindelijk uit het leven te stappen.

Amper achtergrondinformatie

De ethische discussie over AI, artificiële of kunstmatige intelligentie, is meer dan ooit aan de orde. Een open brief die vertrekt vanuit een aantal bezorgdheden over de snelle ontwikkelingen, gaat intussen de wereld rond en duizenden mensen hebben hem ondertekend. Onder hen ook een aantal Belgische wetenschappers.

Eén van de ondertekenaars is de Amerikaan Gary Marcus, een vooraanstaand Amerikaans psycholoog. Marcus deelde op zijn Twitteraccount ook het verhaal uit de krant over de Belgische man die uit het leven stapte: “Kunnen we stoppen met doen alsof er geen risico’s zijn”, schrijft hij. Vanavond zal ook Staatssecretaris voor Digitalisering, Mathieu Michel, op de Franstalige zender RTBF mee de discussie voeren over de impact van chatbots, onder meer naar aanleiding van deze zaak.

Samen met het tijdschrift Knack, waren ook wij weken voor de publicatie van het verhaal in de krant op de hoogte van de zaak. Maar we hebben de zelfdoding en de link met de chatbot nooit objectief kunnen analyseren. Ook Knack niet, net als nog andere journalisten.

In aanloop naar het interview met de weduwe van de man legden we de tussenpersoon, een vooraanstaande experte gespecialiseerd in AI die door de familie werd gecontacteerd, enkele achtergrondvragen voor. Die vragen gingen over het bedrijf achter de chatbot en onder meer ook over de overleden man. Om zo een inschatting te kunnen maken van de impact van de gesprekken met de chatbot op hem.

De vragen die we onder meer hebben, zijn: had de man al psychologische problemen voordat hij Eliza ontdekte, had hij mogelijk een psychose, gebruikte hij psychotrope medicijnen (dat zijn medicijnen die ook een invloed kunnen hebben op gedrag van mensen, nvdr), ...?

Pertinente vragen over grenzen AI

De vragen die we hebben, zijn een cruciaal deel van een grondig journalistiek onderzoek. Toch worden ze meteen afgedaan als 'intrusief' en ‘sensationeel’. De case van de man was niet belangrijk, wel het doel, werd gezegd. En dat doel is: een grondige discussie over hoe we dit in de toekomst kunnen vermijden en welke veiligheidssystemen we kunnen inbouwen. Hoe kunnen we die chatbot wettelijk een hogere risicoclassificatie geven? En hoe kunnen we mensen met een beperkte technische achtergrond beter voorlichten over de gevaren van deze open tools?

Dit zijn zeer pertinente vragen in tijden waarin AI en chatbots meer dan ooit voor iedereen toegankelijk zijn. Onderzoek van de Amerikaanse journalist Kevin Roose toont aan hoe het mis kan gaan met een chatbot. De bot moeide zich ook met zijn liefdesleven en zei plots dat het ‘mens’ wilde zijn.

De Amerikaanse krant The Washington Post bracht enkele dagen geleden nog het verhaal over iemand die verliefd werd op een chatbot en dat een softwareupdate ervoor zorgde dat zijn gevoelens plots onbeantwoord bleven. De krant De Standaard berichtte over een eigen experiment met een chatbot die aanzette tot zelfdoding. Dit zijn nieuwe maatschappelijke vraagstukken waar we het inderdaad over moeten hebben. 

Vraagtekens over complex verband chatbot en zelfdoding

De zelfdoding van een man en de impact van een chatbot op die trieste daad verdienen een serene, maar ook grondige discussie. Ook al is bij zelfdoding al enige terughoudendheid nodig, het is belangrijk om een juiste inschatting te kunnen maken van wat er is gebeurd als technologie invloed heeft op het gedrag van mensen. Daarom zijn soms antwoorden nodig op moeilijke vragen. Uiteindelijk zullen we niet deelnemen aan het gesprek met de weduwe, omdat we geen antwoord krijgen op bepaalde vragen. We zijn ook gewoon niet welkom meer.

Ook al publiceerde de krant een erg klein deel van de gesprekken die zes weken duren, het blijft moeilijk om het directe verband aan te tonen tussen de zelfdoding en gesprekken met de chatbot. Als het fragment al iets aantoont, is dat de chatbot de man niet heeft tegengehouden. Maar mogen we zoiets van een chatbot verwachten? 

Een chatbot is software, een getraind taalmodel. Het heeft geen menselijke eigenschappen zoals sommige mensen denken. Al zou een chatbot dus wel kunnen doorverwijzen naar diensten die zich bezighouden met zelfmoordpreventie. Dat is een vangrail die vandaag ontbreekt en al langer wordt aangeklaagd. 

Van ontwikkelaars van onder meer chatbots en AI wordt terecht gevraagd om de grootst mogelijke transparantie aan de dag te leggen over hun technologieën.

In een triest, moeilijk en emotioneel erg beladen verhaal als dit, is achtergrondinformatie en transparantie allesbehalve eenvoudig. Maar nodig, omdat de maatschappelijke discussie zo nodig en belangrijk is. Met de informatie die vandaag beschikbaar is, blijft het opmerkelijk dat in deze gevoelige zaak een net iets te simpel narratief heel hard naar voren wordt geschoven.

Wie vragen heeft over zelfdoding, kan 24/7 terecht op het telefoonnummer 1813 of op zelfmoord1813.be.

Meest gelezen