Facebook zet fotoherkenning in tegen wraakporno

Facebook neemt binnenkort maatregelen om te voorkomen dat ongewenste naaktfoto's zonder toestemming verspreid worden via de sociaalnetwerksite of via dochterplatformen Instagram en Messenger. Het Amerikaanse bedrijf zet daarvoor technologie met fotoherkenning in, die de zogenoemde wraakporno meteen detecteert en verwijdert.

Facebook zal zelf niet actief speuren naar naaktfoto's die zonder toestemming op het net werden gegooid. Het is de bedoeling is dat gebruikers die op een foto stuiten waarvan ze vermoeden dat de geportretteerde persoon er geen toestemming voor gaf, dat zelf aan Facebook rapporteren. Een speciaal daarvoor opgeleid team beoordeelt het beeld daarna. Gaat het volgens hen om wraakporno, dan wordt de foto meteen verwijderd.

Fotoherkenning moet daarna verhinderen dat de foto alsnog circuleert. Wie het beeld toch nog probeert te delen, krijgt een waarschuwing. De techniek is vergelijkbaar met wat Facebook nu al gebruikt om te voorkomen dat kinderpornografische afbeeldingen worden gedeeld.

In een eerste fase is de techniek enkel beschikbaar op Facebook, Instagram en Messenger. De berichtenservice WhatsApp, ook een onderdeel van Facebook, maakt nog geen deel uit van het plan: door de end-to-end-besleuteling op die app kan Facebook namelijk niet zien wat gebruikers elkaar sturen. Volgens Antigone Davis, hoofd beveiliging bij Facebook, wordt er echter nog gewerkt aan een oplossing voor WhatsApp.

Meest gelezen