Copyright (c) 2020 Mr.Mikla/Shutterstock. No use without permission.

Amerikaanse "Big Tech" maakt afspraken voor veiligere AI-technologie

Zeven toonaangevende technologiebedrijven die bezig zijn met de ontwikkeling van artificiële intelligentie, hebben afspraken gemaakt hoe ze die technologie veilig willen houden. Het gaat onder meer om Google Alphabet, Facebook-moederbedrijf Meta Platforms en Open AI.

Virtuele watermerken die AI-media onderscheiden van echte afbeeldingen en video's. Grondigere tests door interne én externe experten vooraleer nieuwe AI-systemen worden gelanceerd. En een betere informatiedeling over de beveiliging en risico's van die systemen.

Het zijn enkele van de belangrijkste maatregelen waarover de zeven grootste Amerikaanse technologiebedrijven het eens zijn geraakt. Op die manier willen ze de risico's van hun toepassingen op basis van artificiële intelligentie beperken.

Nood aan regulering

Al maanden regent het waarschuwingen over de mogelijke risico's van artificiële intelligentie. Het tempo waarin die technologie zich ontwikkelt, heeft de angst aangewakkerd voor onder meer de verspreiding van desinformatie en het destabiliseren van de samenleving.

Om die reden keurde de Europese Unie in juni als eerste een wet goed om AI-technologie te reguleren. Maar in de Verenigde Staten blijft regelgeving voorlopig uit, ondanks oproepen daartoe van ChatGPT-topman Sam Altman en Microsoft-baas Brad Smith.

In mei ontving Amerikaans vice-president Kamala Harris de topmannen van de betrokken bedrijven. Daarbij uitte ze haar zorgen dat AI een bedreiging kan vormen voor de veiligheid, maatschappelijke rechten en de democratie. Ze riep alle betrokken partijen op om de uitdagingen samen aan te pakken.

Nu hebben de zeven grootste Amerikaanse techbedrijven dus onderling afspraken gemaakt hoe ze dat kunnen doen. Gisteravond lichtten ze hun voornemens toe op een persconferentie in het Witte Huis, in de aanwezigheid van de Amerikaanse president Joe Biden.

Vrijblijvend

De voornaamste maatregel is het voornemen om voortaan alle door AI gegenereerde vormen van inhoud te "watermerken". Gebruikers zouden zo eenvoudig moeten kunnen zien wanneer de technologie gebruikt is bij het creëren van tekst, afbeeldingen, audio of video. Hoe dat precies zal gebeuren, is wel nog een vraagteken.

In de Verenigde Staten wordt gevreesd voor misbruik van "fake media", gemaakt met behulp van AI, in aanloop naar de parlementsverkiezingen in 2024.

De bedrijven hebben zich verder ook voorgenomen om de privacy van gebruikers te beschermen en erover te waken dat de technologie niet gebruikt wordt om kwetsbare groepen te discrimineren. Ze willen ook de resultaten van hun tests publiek maken.

De gemaakte afspraken zijn wel vrijwillig, en dus niet afdwingbaar. President Biden werkt nog aan een presidentieel besluit en wetgeving om AI-toepassingen verder te reguleren, laat het Witte Huis weten in een verklaring.

Meest gelezen