Dit is een gastbijdrage. Een Apache-lezer levert met dit stuk een bijdrage aan het maatschappelijk debat. De auteur schrijft in eigen naam en is verantwoordelijk voor de inhoud van de tekst.

ChatGPT: de magie van een digitale papegaai

Ben Caudron
chatgpt
Net als een papegaai kan ChatGPT zinnen vormen, maar heeft het geen flauw benul van de betekenis ervan. (Rawpixel)

Entzauberung. Onttovering was het lot dat een wereld waarin het proces van rationalisatie een overheersende factor werd te wachten stond. Althans, dat dacht Max Weber. Dankzij de vooruitgang van de wetenschap zou de wereld transparanter worden maar ook aan mysterie inboeten. De mens zou het zonder magie moeten stellen.

Meer dan een eeuw later lijkt de betovering herrezen. Opvallend vaak wordt die gevat in een citaat van Arthur C. Clarke: "Any sufficiently advanced technology is indistinguishable from magic."

Of Weber de ironie zou gesmaakt hebben, is moeilijk te zeggen, maar ze is er wel. Technologie is een teken bij uitstek van wat wetenschap vermag en uitgerekend de meest geavanceerde zou niet langer te onderscheiden zijn van magie? Wie verzint zoiets? Clarke, dus. En wellicht had hij goede argumenten om die mening te onderbouwen, al doen die minder ter zake dan de vraag waarom dit citaat uitgerekend nu zo vaak opduikt.

Het antwoord op die vraag heeft alles vandoen met wat David Karpf een briljante marketingstunt noemt: ChatGPT, het speeltje van OpenAI. Meer dan Meta, Microsoft, NVIDIA of Google-moeder Alphabet slaagde OpenAI erin om te verbazen, ontzag af te dwingen en werknemers uit de diploma-industrie de schrik van hun leven te bezorgen. Waarop heel voorspelbaar een heuse mediahetze volgde.

Dat is best wel een hele prestatie, zeker nadat de intelligente Blake Lemoine aan Googles Kruis werd genageld door halsstarrig vol te houden dat de AI-bot LaMDA een bewustzijn had. Dat deze bewering ongegrond was, had de media er niet van weerhouden om er een smeuïg verhaal van te maken waarover wij ons druk konden onderhouden. Is er iets leukers dan te sidderen – want lonkt daar niet een dystopische duivel – of te kirren – want komt ze niet dichterbij, de onsterfelijkheid, ergens in een machine, ergens in een zonnestelsel in uw buurt?

Maar ChatGPT deed dus beter. Wellicht heeft dat te maken met de beslissing van OpenAI om deze versie van een Large Language Model (LLM) open te stellen voor het publiek. Dankzij een intuïtieve interface kan iedereen die dat wil er meteen mee aan de slag. Kennis van wat precies gebeurt is niet alleen totaal overbodig, ze bederft de pret. Ze onttovert.

Waarom nu?

Omdat we liever mijmeren over magie gaan we voorbij aan een simpele vraag: waarom nu? Waarom pakt OpenAI uitgerekend nu uit met marketingstunts zoals Dall-E of ChatGPT?

OpenAI is lang niet de enige met indrukwekkende modellen. Google, Microsoft en NVIDEA sloegen de handen in elkaar en ontwikkelden samen Megatron-Turing NLG. Dat ding bevat 530 miljard parameters, drie keer meer dan GPT-3.5. Bovendien heeft Google PaLM in de pijplijn zitten.

Stephen Marche – die zich niet onbetuigd laat in de productie van euforische onzin, en met wie we daarom verderop nog een keer de draak steken – verkeert in de waan dat het model kan redeneren en noemt het daarom "vreemder dan bewustzijn". Of hij bij bewustzijn was toen hij het stuk schreef, vraagt u zich af? U bent niet alleen.

Meta zette dan weer een hoge borst op toen in het najaar van 2022 Galactica op de wereld losgelaten werd. Want Galactica was getraind met "wetenschappelijke en academische data". Wie schetst onze verbazing toen de demo na drie dagen offline ging omdat deze meer onzin uitkraamde dan Yann LeCun, het hoofd van de AI-afdeling van Meta, die het presteerde om de problemen toe te schrijven aan "misbruik". Naar zin voor verantwoordelijkheid en 'betrouwbaarheid' is het lang zoeken bij Meta.

Apple laat de grootse aankondigingen aan anderen en stouwt ondertussen de diverse besturingssystemen en toepassingen vol machine learning. Het Luxury-bedrijf opteert voor een strategie die niet alleen zorgt voor gewenning aan kleine handigheidjes, maar ook meteen geld oplevert.

En dat is slim. Want daar gaat het uiteindelijk om. De ontwikkeling van Artificiële Intelligentie is een zeer kostelijke onderneming. Ook de manieren waarop toepassingen worden gepromoot kosten handenvol geld: telkens iemand ChatGPT uitprobeert, vliegen de dollars het raam uit. En als OpenAI iets niet is, dan is het wel een liefdadigheidsinstelling.

Microsoft – dat 1 miljard dollar in OpenAI investeerde – kon bedingen dat het als eerste de realisaties van OpenAI in de eigen producten kan verwerken

OpenAI zag in 2015 het daglicht en pakte meteen uit met een aantal verrassingen. Want een non-profit met een startkapitaal van 1 miljard dollar is zelfs in Silicon Valley ongewoon. Dat kapitaal werd verzameld door leden van de PayPal-maffia: Elon Musk, Peter Thiel en Reid Hoffman weten als geen ander hoe ze geld van anderen moeten gebruiken om risicovrij te 'innoveren'.

Ook Sam Altman – ex-CEO van Y Combinator en dus ook vertrouwd met deze economische activiteit – deed een duit in het zakje, net als Jeff Bezos, die zijn goudhaantje, Amazon Web Services, liet investeren. De rest van het zakgeld werd opgehoest door mindere goden, waarvan we u de namen besparen.

Achteraf bekeken was de andere verrassing van OpenAI niets anders dan een favoriete truc van Musk, maar in 2015 deed de missie aardig wat stof opwaaien. Want "waardecreatie voor iedereen, niet enkel voor aandeelhouders" klinkt als muziek in de oren van minder goed geïnformeerde enthousiastelingen. Ingewijden hoorden er ook een 'welgemeende fuck you' in en keken met de nodige scepsis toe hoe Musk en Altman zich kweten van hun belangrijkste taak: de onderneming voorzien van een geschikte mythologie.

Al gebiedt de eerlijkheid ons erop te wijzen dat Musk er toch maar weer in slaagde stampij te veroorzaken in een markt waarin alleen de grootste namen uit Big Tech zich met de ontwikkeling van AI konden bezighouden. Hij kwam, beloofde en vertrok. Disruptief jongetje, die Elon.

Drie jaar later stapte Musk misnoegd op en werd OpenAI een capped-profit organisatie. Aandeelhouders hoefden niet langer te pretenderen dat ze onbaatzuchtig investeerden in een betere toekomst voor iedereen, maar kregen wel een beperking opgelegd. Meer dan een rendement van 100% zou niet uitgekeerd worden.

De referentie-aandeelhouders van Microsoft – dat 1 miljard dollar op tafel legde om Musks exit op te vangen – knikten tevreden. Het bedrijf had immers een mooie wissel op de toekomst genomen door te bedingen dat zij als eerste de realisaties van OpenAI in hun eigen producten konden verwerken.

Terwijl OpenAI zich steeds moeilijker kon herinneren waarom ze ooit zo gek geweest waren om door te bomen over 'open', veranderde het klimaat waarin Big Tech moest opereren. Zelfs in de tempels waar de Grote Geesten van Silicon Valley zichzelf bewieroken, viel het woord 'crisis' en investeerders spraken steeds openlijker over een tweede internetbubbel. In 2022 zorgde irrationeel copycatgedrag voor een ongeziene kaalslag in personeelsbestanden. 120.000 jobs gingen in rook op. Net als de beurswaarde van Tesla, Amazon of Meta.

Het gonst van de geruchten dat OpenAI gaat voor een nieuwe kapitaalsronde, aan een waardering van 29 miljard dollar

Een van de interessantere verklaringen komt van Brian Merchant. Terwijl zowat elke belofte waarmee we ons het hoofd op hol lieten brengen – MetaVerse! Slimme Steden! Zelfrijdende auto's! – nooit bewaarheid werd, slaagt Silicon Valley er maar niet in om een nieuw Groot Idee te verzinnen. Niets om investeerders te bezweren hun geldstromen niet te verleggen.

Het gonst van de geruchten dat OpenAI uitgerekend in het huidige klimaat gaat voor een nieuwe kapitaalsronde, aan een waardering van 29 miljard dollar. Als dit lukt – de recentste investering van Microsoft laat vermoeden dat dit wel eens zou kunnen – wordt OpenAI een van de grootste private spelers op de markt van AI, met een gigantische geloofsgemeenschap.

Al is het maar de vraag hoe snel die afkalft zodra moet gedokt worden voor de speeltjes die nu nog gratis zijn. Wat OpenAI wel heeft, is aandacht. Veel aandacht. Daar zorgde de strategie van uitgestald vermaak voor. En die is op enkele uitzonderingen na positief: we vallen als een blok voor ChatGPT. Want we kunnen weer geloven in de mogelijkheid van magie.

Een papegaai beschrijft een paragraaf

Met magie heeft ChatGPT evenwel niets te maken, wel met GPT-3, de vernuftige versie van een LLM. Wat die technologie doet, laten we haar zelf uitleggen. We gaven Sudowrite een 'prompt' – de tekst die als input dient en die in dit voorbeeld al de kernwoorden bevatte – en lieten de output vertalen door DeepL. Leest u even mee?

"NLP (natural language processing) is een gebied van kunstmatige intelligentie dat zich richt op het vermogen van computersystemen om (1) menselijke taal te begrijpen en te verwerken. NLP kent vele toepassingen, van zoekmachineoptimalisatie tot chatbots voor klantenservice. Een van de meest opwindende toepassingen van NLP zijn grote taalmodellen (LLM's).
LLM's zijn deep learning-modellen die worden gebruikt om tekst te voorspellen. Het model wordt getraind op een invoer van tekst, genaamd de prompt. Vervolgens genereert het tokens, de kleinste eenheden van tekst. Het model heeft ook (2) parameters die kunnen worden aangepast om beter aan te sluiten bij de trainingsgegevens.
Een LLM wordt getraind door deze parameters aan te passen en het model meer trainingsgegevens te geven. Zodra het is getraind, kan de LLM een verscheidenheid aan nieuwe tekst genereren die dezelfde stijl en thema's volgt als de trainingsgegevens. Een op een roman getrainde LLM kan bijvoorbeeld nieuwe passages genereren die dezelfde algemene verhaalstructuur volgen als de roman.
Dit voorbeeld toont de kracht van LLM's. Met de juiste trainingsgegevens en verfijnde parameters kunnen deze modellen tekst creëren die zowel zinvol als samenhangend is. (3) Naarmate de technologie voortschrijdt, zullen LLM's een belangrijke bijdrage blijven leveren aan de verwerking van natuurlijke taal."

Indrukwekkend, zegt u? Misschien. Maar houdt u er dan wel rekening mee dat de input heel gedetailleerd was, dat minstens één claim gewoon nonsens is (zie 1), één sleutelconcept – parameters – zo oppervlakkig wordt uitgelegd dat het betekenisloos wordt (zie 2) en onze appreciatie subtiel wordt gestuurd (zie 3)?

ChatGPT en papegaaien kunnen zinnen vormen, maar hebben geen flauw benul van betekenis

Bovendien ontbreekt een ander sleutelbegrip: 'probabiliteit', de kans dat woorden samen voorkomen. Want zo werkt taal. Die geeft de versie van een werkelijkheid weer en in die werkelijkheid zijn waarschijnlijkheden ongelijk verdeeld. De kans dat een willekeurig woord volgt na het lidwoord 'een' is een pak groter dan de kans dat na de woorden 'Jan' en 'Jambon' het woord 'cultuurminnaar' volgt.

Dat de tekst vaag blijft over parameters is merkwaardig, want net het aantal parameters en de wijze waarop ze zijn ingesteld, maken dat wat ChatGPT produceert zo samenhangend en betekenisvol lijkt.

OpenAI levert met ChatGPT best wel een fraai stukje technologie af. En toch hebben Emily M Bender en Timnit Gebru gelijk als ze deze technologie een "stochastische papegaai" noemen. ChatGPT en papegaaien kunnen zinnen vormen, maar hebben geen flauw benul van betekenis.

Bender – die het Computational Linguistics Laboratorium (Universiteit van Washington) leidt – en Gebru – oprichter van het Distributed Artificial Intelligence Research Institute – weten dus goed wat de technologie precies vermag. Bovendien weten ze welke risico's eraan verbonden zijn. Die risico's hebben te maken met de technologie zelf én met de wijze waarop mensen die percipiëren.

Reproductie van schadelijke neigingen

Large Language Models worden getraind door ze te voeden met gigantische hoeveelheden tekst. GPT-3 – het model achter ChatGPT – haalde 80% van de data uit teksten die u en ik op het web slingeren. Minder dan 20% werd uit boeken geplukt. Bovendien wordt telkens iemand valt voor de verlokking van ChatGPT meer input gecreëerd.

Wie van slechte wil is (of van de betere grap houdt, zo u wil) kan het model volslagen onzin serveren, onzin die vervolgens als feit aan de volgende onwetende wordt gepresenteerd. ChatGPT kan niet weten of iets onzin is, omdat het überhaupt niets kán weten. Het herkent patronen, graait in de woordenbak en berekent gewogen probabiliteiten. Punt.

Als we aannemen dat het principe 'garbage in, garbage out' geldig is, dan mogen we veronderstellen dat ChatGPT aardig wat nonsens produceert

Bedwingen we heel even onze neiging tot zelfoverschatting en nemen we aan dat het principe 'garbage in, garbage out' geldig is, dan mogen we veronderstellen dat ChatGPT aardig wat nonsens produceert.  En soms is deze nonsens niet echt onschuldig, zoals ondertussen afdoende is aangetoond.

Dat vergt niet eens slechte intenties. Het volstaat mens te zijn. In tegenstelling tot wat Max Weber misschien had gehoopt, zijn we immers minder geneigd tot rationele overwegingen en houden we er nogal wat vooroordelen en misvattingen op na. We koesteren waarden en normen die soms ethisch laakbaar kunnen gevonden worden. Die uiten zich ook in wat we kunnen omschrijven als collectieve culturele producten. Als deze vervolgens gebruikt worden om modellen te trainen, wordt onze garbage gereproduceerd.

Daarover ging de paper die Timnit Gebru weigerde in te houden. Gebru stond mee aan het hoofd van Googles Ethical Artificial Intelligence Research Team en waarschuwde samen met Bender en Margaret Mitchell voor het seksisme of racisme dat zich nestelt in LLM's. Liever dan deze risico's te erkennen en te investeren in betere methoden, onthoofdde Google de afdeling: Gebru en Mitchell konden vertrekken. Tot zover Don't Be Evil.

Voorbij de illusionisten

OpenAI maakt duidelijk dat we ondertussen aardig wat kunnen met neurale netwerken en Deep Learning en dat we dat steeds beter kunnen. Dat zet sommigen aan tot de meest bevreemdende gedachten.

U wil een voorbeeld? Daarvoor kan u alweer bij Stephen Marche terecht. Die wauwelt in Of Gods and Machines over god, mirakel en tovenarij en stapelt onnauwkeurigheden op flagrante onwaarheden. Alles om onze begrijpelijke verwondering over het vermogen van technologie – de betovering – te vrijwaren voor kritische reflectie.

Willen we verder met systemen die ongelijkheid, uitsluiting, geweld… reproduceren en versterken?

Voor de gevolgen van dergelijke onzin waarschuwt Bender in haar pleidooi voor verzet tegen de "instinctieve neiging vertrouwen te stellen in machines die klinken als mensen". Dat pleidooi is niet gekant tegen de ontwikkeling van AI, maar wel tegen de mogelijkheid dat het ontwikkelpad gekaapt wordt door de AI-hype waarmee Tech-Evangelisten ons afleiden van wat achter het doek plaatsvindt.

Alleen als we de illusionisten zien voor wat ze maar zijn, kunnen we op zoek gaan naar de beste antwoorden op pertinente vragen, antwoorden die ons helpen bij de ontwikkeling van zinvollere systemen. Enkele voorbeelden:

Willen we verder met systemen die ongelijkheid, uitsluiting, geweld… reproduceren en versterken? Hoe zorgen we ervoor dat mensen niet weerloos overgeleverd zijn aan systemen die beslissingen kunnen nemen die een zware impact hebben op die mensen? Weten we voldoende over wie er baat bij heeft om bepaalde beslissingen over te laten aan zogezegd objectieve systemen? Begrijpen we de effecten van dergelijke beslissingen op de werking van samenlevingen?

Bestaat het risico van machtsconcentratie? Horen de begunstigden wel over zoveel macht te beschikken? Hebben we manieren om ongewenste ontwikkelingen of toepassingen die de samenleving schade berokkenen, een halt toe te roepen? Weten we voldoende over de manieren waarop ethische AI kan ontwikkeld worden?

Menselijke zwakte

Benders pleidooi raakt aan een essentieel inzicht, dat al te vaak wordt ondergesneeuwd door zeer interessante maar minder relevante debatten over wat AI precies betekent.

Vragen over of en hoe we superintelligentie kunnen bereiken; over de mogelijkheid of de aard van 'bewustzijn' van zo'n systemen; over of en hoe superintelligentie ons kan helpen om existentiële problemen – sterfelijkheid, om er eentje te noemen – zijn onderhoudend en verdienen de aandacht van mensen. Van Nick Bostrom of David Chalmers bijvoorbeeld?

Ooit zullen we gebaat zijn bij hun inspanningen, alleen is het voorlopig verstandiger om vooral gehoor te geven aan mensen zoals Bender en Gebru. Want meer dan de systemen zelf is de wijze waarop mensen zich ermee verhouden van belang.

Die verhouding wordt voorlopig nog meer door mensen dan door technologie bepaald. Dat probeerde computerwetenschapper Joseph Weizenbaum ons al duidelijk te maken, nadat hij tot zijn afgrijzen had gezien hoe een primitief systeem als Eliza er al in slaagde om mensen te doen vergeten dat ze met een computer te maken hadden.

Wat Weizenbaum observeerde is een basale behoefte: verbondenheid. Die behoefte laat ons vreemde dingen doen. Antropomorfiseren, bijvoorbeeld. Zodra een vorm het toelaat, ontwaren we menselijke kenmerken waar ze niet kunnen gevonden worden. Tenzij we aannemen dat Jezus wel degelijk een sneetje toast is.

Enkelingen beschikken over duizelingwekkende vermogens waaraan ze zoveel macht ontlenen dat het schier onmogelijk wordt aan deze verhoudingen te tornen

Waartoe de mens nog in staat is om zich toch maar verbonden te weten, wordt uit de doeken gedaan door Kate Devlin in haar boek Turned On. Devlin doet onderzoek naar de interactie tussen mens en computer en naar AI, en vond het een goed idee om de mogelijke vormen waarin seks en technologie samenkomen (samen komen, misschien?) van dichtbij te bekijken. Uit haar onderbouwde en heel grappig boek onthouden we dat de producenten van seksspeeltjes de behoefte van verbondenheid en de gedragingen waar die toe leidt zeer goed begrepen hebben.

Vergis u niet. Dit is niet de zwakte die we hier voor ogen hebben: mensen zijn mensen en mensen hebben behoeften en een brein dat er niet om verlegen zit de bezitter ervan om de tuin te leiden om die behoefte te bevredigen. Hier is geen sprake van zwakte, tenzij u er morele opvattingen op nahoudt die uit de vroege middeleeuwen stammen en ingegeven zijn door machtsstreven en wellicht ook angst voor vrouwen.

De zwakte waar het hier over gaat, is inherent aan de nieuwe hegemonie die zich ontwikkelt, een emanatie van rauw kapitalisme dat volgens Mariana Mazzucato de machtsverhoudingen heeft veranderd in een "digitale feodaliteit" waarin enkelingen – Yanis Varoufakis noemt ze Cloudalisten, de heersers van het 'cloudkapitalisme' – over duizelingwekkende vermogens beschikken, waaraan ze zoveel macht ontlenen dat het schier onmogelijk wordt aan deze verhoudingen te tornen.

We hoeven ons niet in te laten met de discussie over de noodzaak van deze goedbekkende begrippen om te begrijpen dat de geschiedenis van mensen en hun technologieën – de intieme dans van mens en techniek – steeds nieuwe werkelijkheden creëert, die we telkens weer moeten leren begrijpen. Vandaag leeft de indruk dat we de dans van de Derwisj dansen. Alleen zijn we niet zeker dat de vejd deze keer tot de liefde zal leiden die heilzaam is.

Er zijn goede argumenten aan te voeren om het onderzoek naar betere systemen vooral verder te zetten. Die hoeven niets eens met Bostroms natte droom – de onsterfelijkheid – te maken te hebben. Een geleefd leven zonder leed dat kan vermeden worden, volstaat wellicht.

Er zijn ook goede argumenten te bedenken om dit pad met de nodige omzichtigheid te bewandelen. Timnit Gebru's zoektocht naar ethische AI is daarom van onschatbare waarde. En zijn er ook niet geldige argumenten te vinden om aan te nemen dat we vooral de zwakte van de heersers van Big Tech moeten bedwingen?

Als ChatGPT iets aantoont, is het wel dat deze mensen te zwak zijn om niet te kiezen voor strategieën die het belang van enkelen boven het welzijn van velen plaatst. ChatGPT is een aardig speeltje dat betovert, in handen van illusionisten die goedgelovigen wijsmaken dat de dame in de kist echt in twee wordt gezaagd.

Als we dan toch zo graag wat mystiek in ons leven willen, zou het niet dan niet magisch zijn mocht iedereen er beter van worden?

LEES OOK
Tom Cassauwers / 17-09-2018

Verbieden we killer robots? Of niet?

Het verbod op killer robots is een hot topic. Autonome wapens halen de mens weg uit beslissingen rond geweld, wat geweld te goedkoop maakt en een wapenwedloop kan ontketenen. Er…
Terminator Graffiti
2 REACTIES
Koenraad Deridder25-01-2023 22:37:06
Fijn artikel, Ben. Sluit naadloos aan bij deze column in de NRC:
https://www.nrc.nl/nieuws/2023/01/20/de-autoriteit-van-chatgpt-a4154872
Nu, ikzelf kan niet ongelukkig zijn met Chat GPT gezien die beweert dat ik een bekend presentator ben geweest van het VRT-Journaal en Terzake... .
Mark Bollen26-01-2023 20:31:57
Mooie recensie, doorspekt met voldoende humor om de aandacht te houden. Bij het zien van reacties online over chatGPT, deed me dat ook terugdenken aan HyperNormalisation, een kritische docu van Adam Curtis waarin ELIZA ook voorkwam: brilliant vooruitzicht van Curtis, weerom, die ons een spiegel voorhoudt, en dat doet adhv prachtige bezwerende beelden en een eigen kijk op geschiedenis ver weg van de mainstream. Dit is het fragment waarvan sprake: https://youtu.be/84QouA9Sm4E