Direct naar artikelinhoud
Sociale media

Filterbubbel op sociale media? Valt nogal mee

Archiefbeeld.Beeld AP

De algoritmen van sociale media zouden gebruikers gevangen houden in de bubbel van hun eigen gelijk, met polarisatie tot gevolg. Dat lijkt volgens recent onderzoek nogal overdreven.

en

Internetgebruikers opgepast, u kunt zomaar in een filterbubbel belanden. Algoritmen die menen te weten wat u interesseert, creëren een comfortabele luchtbel waar alleen behaaglijke inhoud binnensijpelt. Zonder dat u er erg in heeft, komt u vooral meningen en nieuws tegen die uw wereldbeeld bevestigen, terwijl andere perspectieven zijn weggefilterd.

Gevaar voor democratie

De term filterbubbel werd gemunt door internetactivist Eli Pariser, in zijn wereldberoemde boek uit 2011. Het door hem geschetste beeld duikt nog altijd op in verhalen over de groeiende macht van sociale media. Zeker nu personalisatie alledaagser is geworden: nieuwsdienst Blendle raadt gebruikers onder meer artikelen aan op basis van hun interesses, verschillende media werken aan gepersonaliseerde nieuwsbrieven.

Zulke ontwikkelingen zouden een gevaar vormen voor onze persoonlijke ontwikkeling en zouden leiden tot meer polarisatie in de samenleving. De High Level Group on Media Freedom and Pluralism van de Europese Commissie noemde ‘geautomatiseerde filtermechanismen’ enige jaren geleden zelfs een potentieel gevaar voor de democratie. Het is het beeld van de internetgebruiker als weerloze speelbal van algoritmen, overgeleverd aan wat die sociale media hem voorschotelen. 

Maar is het ook waar? Drijven de algoritmen van Google, Facebook, Twitter en consorten ons als makke schapen steeds nauwere bubbels in, waardoor we alleen nog maar ons eigen gelijk bevestigd zien? De afgelopen jaren besloten onderzoekers wereldwijd dat uit te zoeken.

“Echokamer”

Ze zagen allereerst dat mensen inderdaad de neiging hebben om zichzelf online te omringen met gelijkgestemden. Zoals we ook in het offline leven de neiging hebben om mensen met een soortgelijke achtergrond of levensvisie om ons heen te verzamelen, zeggen de Nederlandse communicatiewetenschapper Judith Möller (Universiteit van Amsterdam) en politicoloog Rebekah Tromble (Universiteit Leiden), die beiden onderzoek doen naar filterbubbels. Zij noemen zulke sociale kringen waarin gelijkgestemden oververtegenwoordigd zijn “echokamers”. 

Zo beschrijven onderzoekers uit Finland en Qatar na een analyse van tientallen miljoenen tweets hoe twitteraars met een sterke politieke voorkeur vooral berichten uit het eigen politieke kamp tegenkomen. De uiteinden van de politieke spectra tweeten goeddeels langs elkaar heen. 

Maar echokamer is geen synoniem voor filterbubbel, benadrukken de twee onderzoekers. Online-echokamers ontstaan doordat we vrienden toevoegen uit onze offline-omgeving, het liefst klikken op berichten die ons wereldbeeld bevestigen en negeren wat daar niet bij past. Menselijk gedrag, dus. De filterbubbel, daarentegen, is het resultaat van algoritmen, die het effect van de bestaande echokamers nog eens extra versterken door afwijkende meningen niet eens meer op onze beeldschermen toe te laten. Zoals Möller samenvat: “De echokamer is niet meer dan een hippe manier om over verzuiling te praten. De filterbubbel zorgt ervoor dat, zonder dat je er controle over hebt, de muren van de echokamers op je afkomen.”

Flinterdun bewijs

Na het invloedrijke boek van Pariser kwam veel onderzoek op gang naar filterbubbels, vervolgt ze. Zelf schreef ze mee aan een overzichtsstudie, die dit onderzoek bundelt om te zien of algoritmen daadwerkelijk zoveel impact hebben op ons wereldbeeld en polarisatie in de hand werken. De conclusie: bewijs daarvoor is flinterdun.

"2016 was wat mij betreft het 'jaar van de bubbel'."Beeld Thinkstock

Een van de redenen is dat mensen niet alleen maar op Facebook of Twitter zitten, aldus Sanne Kruikemeier, die aan de Nederlandse Universiteit van Amsterdam politieke communicatie en journalistiek onderzoekt. “We gebruiken over het algemeen veel nieuwsbronnen naast en door elkaar. Twitter naast het Journaal, Facebook naast een krant.”

Positief effect

Onderzoekers uit Oxford, Engeland en Ottawa, Canada trekken dezelfde conclusie in hun studie ‘De echokamer is overschat’ uit 2018. Als gebruikers op een sociaal medium eenzijdige informatie over politiek krijgen aangeboden, zegt dat niets over de informatie die ze op andere plekken tot zich nemen, zoals elders op internet of op televisie, schrijven zij. Slechts een klein deel van de mensen zal volgens hen in een filterbubbel leven.

Sterker nog, sociale media kunnen zelfs een positief effect hebben op de diversiteit van onze informatievoorziening, volgens voornoemde experts. Je kunt er juist in aanraking komen met mensen en meningen die in het dagelijks leven buiten beeld blijven, blijkt onder meer uit vragenlijsten van de Universiteit van Oxford onder gebruikers en niet-gebruikers van sociale media. Waar het in het offlineleven lastig kan zijn om radicaal andersdenkenden tegen te komen onder collega’s of vrienden, langs het sportveld of op het buurtfeest, daar zijn ze vooral op Twitter maar een paar muisklikken van je verwijderd.

Besloten pagina's

Is de filterbubbel hiermee naar het rijk der fabelen verwezen? Niet helemaal. Allereerst is nauwelijks bekend hoe het in de begindagen van sociale media met filterbubbels gesteld was, in de tijd dat Pariser met zijn boek kwam. “Het zou kunnen dat het effect toen wel sterk was, maar dat de platformen hun algoritmen hebben aangepast, of gebruikers er beter mee omgaan”, zegt Rebekah Tromble. “We hebben simpelweg haast geen data uit die tijd.”

Hiernaast mag het bubbeleffect op de schaal van hele bevolkingen weinig voorstellen, in individuele gevallen kunnen algoritmen allicht een filterbubbel creëren. “De een zal in aanraking komen met andere meningen en hierdoor een diverser wereldbeeld krijgen, de ander zal juist feller worden in zijn oude standpunten”, aldus Tromble.

Ook is er nog genoeg dat niet bekend is over de werking van algoritmen op sociale media. Zo is een van de manco’s van onderzoek naar platformen als Facebook en Instagram dat wetenschappers geen beschikking hebben over de originele data, omdat deze platformen grotendeels werken met besloten pagina’s. Slechts een beperkt aantal pagina’s is openbaar, de meesten zijn alleen zichtbaar voor vrienden, zodat grootschalig wetenschappelijk onderzoek naar het gedrag van gebruikers moeilijk is. Bij Twitter is dat anders, omdat veel Twitterprofielen openbaar zijn, maar daarop zit maar een beperkt deel van de bevolking. 

Niet weerloos

Dan is er nog het bijzondere geval van YouTube. Het videoplatform heeft volgens Rebekah Tromble wél een duidelijk sturende werking op specifieke groepen gebruikers. “Het gaat dan niet om klassieke filterbubbels, waarbij gebruikers alleen hun eigen mening bevestigd zien, maar juist om algoritmen die de neiging hebben mensen steeds extremere inhoud voor te schotelen.”

Niet dat die algoritmen een politieke agenda hebben. Ze zijn simpelweg ingesteld om gebruikers vast te houden en te laten terugkeren. Op sommige onderwerpen blijken extremere filmpjes nou eenmaal goed te scoren. 

Als ze hun gang kunnen gaan, krijgen geïnteresseerden in een onderwerp als migratie al snel YouTube-filmpjes aangeraden met scherpe politieke meningen. Wie deze bekijkt, ziet kanalen met nog verdergaande standpunten verschijnen. Uiteindelijk kunnen gebruikers zo in de hoek van complotdenkers belanden. 

Dat het nu wel meevalt met de filterbubbel, garandeert bovendien niet dat dit zo blijft, benadrukt ze. Platformen kunnen hun algoritmen wijzigen, het mediagebruik verandert. “We zien nu bijvoorbeeld dat jongeren zwaarder leunen op internet en sociale media als bron voor nieuws”, zegt ze.

Het kritisch volgen van ontwikkelingen op het gebied van personalisatie-algoritmen en investeren in mediawijsheid blijft volgens haar van belang. Maar, concludeert ze, “we moeten oppassen met het idee dat algoritmen burgers tot passieve, weerloze slachtoffers maken. Dat is niet zo. De burger is niet weerloos tegen filterbubbels.”

Google

Opgericht in 1998

Aantal gebruikers per maand: meer dan 1 miljard

Filterbubbelindex: laag

Het beeld dat ook Google de consument gevangen houdt in filterbubbels, komt onder meer terug in het boek The Filter Bubble van internetactivist Ali Pariser. Daarin laat hij een voorbeeld zien van twee totaal verschillende zoekresultaten na dezelfde zoekopdracht. Volgens Google was dit toen, in 2011, al een incident. Zeker is in elk geval dat de zoekmachine nu beperkt personaliseert. Google past resultaten slechts aan op locatie (wie op ‘Delhaize’ zoekt, krijgt Delhaize’s in de buurt te zien) en een beetje op context (wie eerst op ‘Formule 1’ zocht en daarna op ‘Verstappen’, zoekt vermoedelijk de coureur). Verschillende personen die op bijvoorbeeld ‘vaccineren’ of ‘immigratie’ zoeken, zien nauwelijks verschillende resultaten.

YouTube

Opgericht in 2005, nu eigendom van Google

Aantal gebruikers per maand: 1,9 miljard

Filterbubbelindex: hoog

Anders dan de Google Search is YouTube in extreme mate gepersonaliseerd. Gebruikers kunnen weliswaar actief zoeken op onderwerp, maar bijna alles dat verder wordt aangeraden gebeurt op basis van eerder zoek- en kijkgedrag. Een gevolg is dat YouTube sommigen in de richting van extremen duwt op onderwerpen als migratie, klimaatverandering en vaccineren. Het videoplatform voerde de laatste tijd naar eigen zeggen veranderingen door om dit effect te dempen. Het duwt mensen overigens niet bewust richting extremen: extremere video’s blijken kliks te genereren, dat beloont het algoritme. YouTube zegt nu meer nadruk op andere zaken te leggen, bijvoorbeeld de waardering van kijkers.

Twitter

Opgericht in 2006

Aantal maandelijkse gebruikers: 320 miljoen

Filterbubbelindex: gemiddeld

Begonnen als chronologische tijdlijn waarin alleen berichten verschenen van mensen die je volgt, is Twitter in navolging van onder andere Facebook overgestapt op door algoritmen gestuurde aanbevelingen. Niet langer staan de nieuwste tweets bovenaan, maar de berichten die Twitter als relevantst bestempeld. Dit gebeurt onder meer op basis van personen die je volgt, wie zij op hun beurt volgen en hoeveel andere gebruikers een tweet delen of leuk vinden. In die zin kunnen Twitters algoritmen bestaande voorkeuren versterken. Tegelijkertijd zorgt de openheid van het platform – je kunt mensen volgen zonder wederzijdse toestemming en komt daardoor snel onbekenden tegen – ervoor dat mensen meer diverse informatie en meningen tegenkomen. Sinds kort biedt Twitter overigens weer de mogelijkheid om de lijst ouderwets chronologisch te zien.

Facebook

Opgericht in 2004

Aantal maandelijkse gebruikers: 2,3 miljard

Filterbubbelindex: gemiddeld

De eerste filtering op Facebook wordt door gebruikers toegepast: de Facebookvrienden die ze toevoegen, de mensen of merken die ze volgen. Vervolgens laat Facebook zijn algoritmen los om te bepalen welke inhoud ze te zien krijgen. Daarbij krijgen berichten voorrang die veel vind-ik-leuks hebben en die aansluiten bij de interesses van de gebruikers, gebaseerd op eerder klik- en kijkgedrag. ‘Engagement’ is het toverwoord; mensen zo lang mogelijk vasthouden en zo veel mogelijk laten doen. Ook Facebook past zijn algoritmen voortdurend aan.

Instagram

Opgericht in 2010, eigendom van Facebook

Aantal maandelijkse gebruikers: meer dan 1 miljard

Filterbubbelindex: gemiddeld

Gebruikers krijgen alleen de foto’s en video’s te zien van de mensen, media of merken die ze volgen. Net als bij moederbedrijf Facebook zet Instagram vervolgens zijn algoritmen aan het werk om die berichten te laten zien die het best passen bij de interesses van de gebruiker en die het al goed doen bij anderen.

Snapchat

Opgericht in 2011

Aantal maandelijkse gebruikers: 300 miljoen

Filterbubbelindex: gemiddeld

Snapchat heeft verschillende plekken om berichten te laten zien. Allereerst van de directe vrienden. Verder zijn er de ‘abonnementen’ van gebruikers, bijvoorbeeld van nieuwsmerken. Hier zet Snapchat nieuwe bijdragen bovenaan. Tot slot is er nog een sectie ‘Voor jou’, die helemaal algoritme-gestuurd is. Wat gebruikers al interessant vinden, wordt hier extra onder de aandacht gebracht, los van het eigen vriendennetwerk.

TikTok

Opgericht in 2016

Aantal maandelijkse gebruikers: 500 miljoen

Filterbubbelindex: hoog

New kid on the block TikTok draait om het delen van korte, zelfgemaakte muziekfilmpjes van 3 seconden tot maximaal een minuut. Waar veel sociale media een sociaal netwerk als uitgangspunt nemen – vrienden, volgers – ligt bij de app de focus sterker dan ooit op klikgedrag. Je kunt nog wel mensen volgen, maar op het hoofdscherm spelen zij geen rol. Wat je daar ziet, is bepaald door algoritmen, op basis van eerder kijkgedrag. Een behoorlijk strakke filterbubbel dus. Nu zullen playback- en dansfilmpjes polarisatie niet snel in de hand werken. Als sociale media waar nieuws en meningen wel een rol spelen het TikTok-model zouden overnemen, is het ontstaan van sterkere filterbubbels goed denkbaar.