Videospeler inladen...

Gelijk wie eender wat laten zeggen: stemmen klonen was nog nooit zo makkelijk  

Politici, acteurs of wereldleiders woorden in de mond leggen die niet van hen zijn? Het kan nu makkelijker dan ooit dankzij de spraaksoftware ElevenLabs. Een gevaarlijk spel of kan "stemmen klonen" toch ook nuttig zijn? Onze redactie test het uit en gaat in "Laat" dieper in op het fenomeen met onderzoeker Nathalie Smuha van de KU Leuven. 

Over het populaire computerprogramma ChatGPT, een zoekrobot die op eenvoudig verzoek teksten voor je schrijft, is intussen al heel wat inkt gevloeid. Maar nu is er ook ElevenLabs. Een applicatie die aan de hand van artificiële intelligentie (AI) een stem alles kan laten zeggen wat je wil. En dus ook wat je niet wil.

Zelf zegt ElevenLabs "de meest realistische en veelzijdige AI-spraaksoftware ooit" te zijn. Hoe dat precies werkt, legt Tim Verheyden, expert digitale media bij VRT NWS uit in "Laat".

"ElevenLabs is een spraakherkenningssoftware die jouw stem nabootst. Je kan heel eenvoudig iemand nieuwe zinnen laten uitspreken, die die persoon nooit heeft gezegd." Het enige wat je moet doen is één minuut lang je stem opnemen door dingen in het Engels te zeggen. Vervolgens kan je de computer eender welke tekst laten uitspreken, met diezelfde stem."

BEKIJK - Tim Verheyden laat zijn stem klonen:

Videospeler inladen...

Fascinerend of dreigend risico?

In "Laat" gaat Nathalie Smuha, onderzoeker Recht, Ethiek en AI aan de KU Leuven, dieper in op de gratis online-stemmengenerator. "Aan de ene kant is het fascinerend wat we kunnen doen met die technologie. Denk aan de creatieve sector: verhalen vertellen, audioboeken maken, reclamespots laten inspreken, ... . Langs de andere kant komen er toch heel wat ethische en juridische vraagstukken bij kijken."

Want als je je eigen stem kan laten opnemen, kan dat uiteraard ook met die van iemand anders. En zo kan je dus eender wie gelijk wat laten zeggen. Tim Verheyden test het hieronder uit aan de hand van de stem van de Amerikaanse president Joe Biden.

“Als je één minuut opname van eender welke stem in het Engels hebt, dan kan je de computer tot in het einde der tijden dingen laten zeggen die die mensen nooit hebben uitgesproken. Dit bijvoorbeeld: “Hallo, ik ben Joe Biden. Ik verklaar de oorlog aan Rusland.”

BEKIJK - "Hallo, ik ben Joe Biden. Ik verklaar de oorlog aan Rusland.":

Videospeler inladen...

Drie jaar geleden werd er al eens misbruik gemaakt van een soortgelijk systeem. Toen werd een bank in Hongkong beroofd door de stem van een directeur na te maken met AI. De oplichters lieten uitschijnen dat er dringend een bedrag van 35 miljoen dollar moest overgemaakt worden. Met alle gevolgen van dien. 

Deepfake

Tot hier het aspect audio. Maar, stel dat je die stemmen gaat combineren met deepfake-video, een vorm van beeldmanipulatie waarbij je met intelligente software een ander gezicht kleeft op een video-opname. "Dan wordt het heel moeilijk om op te sporen of het om een echte video gaat of niet", legt Smuha uit. "Denk bijvoorbeeld aan de politieke wereld. Als jij de dag voor de verkiezingen een video met levensechte audio gaat tonen van jouw politieke tegenstander... . Laat die persoon dan maar eens bewijzen dat dat niet waar is wat die daar zegt."

Afgelopen week werd de tool van ElevenLabs al misbruikt om stemmen van beroemdheden te genereren die zeer ongepaste uitspraken voorlezen. Zo dook er een nepclip op van actrice Emma Watson die het boek"Mein Kampf" van Adolf Hitler voorlas en zeiden "Star wars"-acteurs in nog andere video's zeer beledigende, vrouwonvriendelijke en racistische boodschappen.

Smuha benadrukt dat de bedrijven die met zo'n technologie uitpakken, een grote verantwoordelijkheid hebben. "Het zal gebruikt worden, dus moeten we anticiperen op die risico's. Er zijn technische maatregelen die zulke bedrijven kunnen nemen." 

ElevenLabs zelf zegt bepaalde zaken in hun software te implementeren die het risico op schadelijk misbruik minimaliseren. "Zo zijn we volledig toegewijd aan zowel het respecteren van intellectuele eigendomsrechten als het aanpakken van misbruik." Toch moest het bedrijf afgelopen weekend op Twitter toegeven dat het "een toenemend aantal gevallen van misbruik van stemklonen" zag.

Wat zegt de wet?

Op Europees niveau wordt aan een wet over AI gewerkt. "Die gaat pas ten vroegste in 2025 van kracht zijn, dus daar moeten we nog niet op rekenen", zegt Smuha. "Er bestaat wel al een regelgeving rond gegevensbescherming. Jouw audio - een persoonsgegeven van jou - wordt al beschermd. En verder zijn er ook regels tegen identiteitsfraude, want is ook verboden."  

Maar tegen dat je hebt achterhaald dat iets fake is, is het vaak al te laat. "Dat is het probleem. Het is vaak moeilijk te achterhalen. Of je hebt er AI voor nodig. Eens dat je weet dat het er is, is de schade al geleden."

BEKIJK - Het volledige gesprek met Nathalie Smuha over stemmen klonen in "Laat":

Videospeler inladen...

Meest gelezen