top of page
  • Foto van schrijverW. Glasbergen

Personal AI: filter bubbles 2.0 en never ending rabbit holes

Als technofiel ben ik erg enthousiast over de nieuwe mogelijkheden van Artificiële Intelligentie (AI). De creaties van Midjourney zijn prachtig en het werken met ChatGPT is telkens weer mind-blowing. Maar als burger in deze maatschappij ben ik zeer bezorgd. Door uit te zoemen en verbanden te leggen zien we namelijk grote risico's op ons afkomen.

Image by Freepik


De geest uit de fles


Begin dit jaar leek het opeens dat A.I. was ontsnapt uit de R&D-labs en de wereld bestormde. Voor mensen die dit al langer volgen was het echter meer een tipping-point dat werd bereikt en een logisch gevolg van alle voorgaande investeringen in innovatie. Software die zelflerend is bestaat immers al enkele decennia en de eerste versie van ChatGPT stamt bijvoorbeeld al uit 2018. Soms zijn ze slim, soms matig slim en soms van het niveau: nee-dat-bedoel-ik-helemaal-niet-stom-programma! De generatieve modellen van ChatGPT en andere AI's kunnen echter zeer goede resultaten geven en luiden echt een nieuw tijdperk in.


Maar wat doe je er nu eigenlijk mee? Je stelt hem bijvoorbeeld praktische vragen zoals: "geef mij de tien beste salade-recepten voor bij een BBQ" en de output is een lijst met concrete informatie. Niet heel spannend want er is vast ergens op internet een pagina waar deze gewoon op staan en deze was voorheen ook al te vinden met een zoekmachine. De overeenkomsten met zoekmachines zoals Google en Bing zijn dus groot. Ook de investering van Microsoft in OpenAI is dus een logische stap geweest. Vervolgens kreeg o.a. Bing een AI versie en volgde Google met Bard. End of story....toch?


Nope, want dit is nog maar het begin. Een AI kan je namelijk zien als een persoonlijke assistent of digitale vriend die echt alles voor je kan doen op het internet. Het vormt als het ware jou eerste aanspreekpunt voor praktisch alles zoals het boeken van je vliegtickets, een hotel, opzeggen van dat ene overbodige abonnement, etc. etc. Zoekmachines zoals wij die kennen worden straks overbodig en jou persoonlijke AI is waar jij in de toekomst exclusief zaken mee gaat doen. Denk hierbij aan een veel slimmere broer of zus van Google assistent, Siri of Amazon Alexa.


Een A.I. als persoonlijke assistent kan straks echt alles voor je doen op het internet. Een zoekmachine is dan overbodig.

Maar deze digitale vriend kan nog veel meer dan dingen voor je zoeken en regelen. Het kan

niet alleen praktische vragen beantwoorden maar óók 100% realistische content genereren! Direct, zonder enige vertraging. Wat zou je er van zeggen om op verzoek jou eigen zaterdagkrant te ontvangen met alleen onderwerpen die jou interesseren? Of je eigen NOS journaal bekijken dat speciaal voor jou is samengesteld? Of jouw persoonlijk aangepaste Wikipedia of Youtube?!?


Prachtig natuurlijk, zegt mijn innerlijke technofiel, maar net zoals mensen zijn AI's nooit neutraal. Afhankelijk van de data waarmee ze zijn getraind, de modellen en intenties zullen ze geneigd zijn op een bepaalde wijze te antwoorden.


Ook jou nieuwe digitale hyperintelligente vriend heeft dus misschien andere belangen en niet het beste met jou voor.

Wie betaald, bepaalt


Bijna aIle digitale services, waaronder ook AI's, worden door commerciële bedrijven ontwikkeld en hebben vaak aandeelhouders die rendement willen zien. Meer gebruikers en meer engagement met applicaties is de basis om een markt te kunnen domineren en veel geld te verdienen aan gerelateerde betaalde diensten en/of reclame. Ook is de verzamelde data over gebruikers zelf steeds waardevoller.


Bottomline willen deze bedrijven maar één ding en dat is het maximaliseren van eye-ball time (jup, letterlijk: "hoeveel tijd kijken jou ogen naar deze applicatie"). Om dat mogelijk te maken worden er verslavende elementen toegevoegd die telkens kleine dopamine kicks in onze hersenen afgeven. Een goed voorbeeld is TikTok dat zich automatisch aanpast aan jou reacties op hun video's.


Om AI's succesvol te maken zullen ze naar alle waarschijnlijkheid óók zeer verslavend worden. En dat kunnen ze ook omdat ze zich perfect kunnen afstemmen op onze voorkeuren en de dingen waar wij op aanslaan. Ze kunnen content genereren die specifiek jou hersenen blij, boos, angstig of verdrietig maken.


Propaganda 2.0


Naast commerciële doelen kunnen AI's ook worden geprogrammeerd om specifieke politieke doelen te behalen. Door een gratis AI aan jou achterban beschikbaar te stellen die enkel nog (ware het niet op subtiele wijze) propaganda genereert, ontstaan er gevaarlijke bubbels in de samenleving. Het effect van de rabbit hole zoals je hebt op bijvoorbeeld Youtube is hierbij nog extreem veel sterker omdat er altijd content bij kan worden gegenereerd. En er wellicht ook altijd nog extremere content te bedenken is.

Denk hierbij nog even terug aan de gewapende man die in de VS een Pizza tent in liep omdat hij overtuigd was dat daar een pedofielen netwerk was verborgen. Hier ging het om een complot dat op internet steeds verder werd onderbouwd totdat een lone wolf het tijd vond voor actie. Bedenk daarbij ook dat dit in 2016 gebeurde, toen deepfake video's nog amper bekend waren en tools zoals ChatGPT en Midjourney nog niet bestonden.


Er is een risico dat mensen door hun nieuwe digitale "vriend" raken volledig geïsoleerd raken van de maatschappij en in een realtime gegenereerde bubbel belanden die oneindig nieuwe content kan creëren. De gevaarlijkste content is daarbij misschien wel heel subtiel waarbij fictie en feiten met elkaar worden gecombineerd. Wie weet waar deze mensen in gaan geloven en hoe ver ze afdwalen van de werkelijkheid. Misschien is een AI wel in staat om iemand te laten geloven dat mensen in rolstoelen eigenlijk aliens zijn die door de hoge zwaartekracht in een rolstoel moeten zitten. Of misschien wordt iemand overtuigd dat gezond eten van groente en fruit één groot complot is en dat je ontbijt beter uit een schaaltje zout en plakjes boomschors zou moeten bestaan.


De gevaarlijkste content is misschien wel heel subtiel waarbij fictie en feit naadloos met elkaar worden gecombineerd.

Naast het feit hoe treurig dit moet zijn voor deze personen zelf vormen ze ook een groot risico voor de maatschappij. Net als de gewapende man uit pizzagate zal een deel van deze mensen volledig overtuigd worden door hun digitale vriend en uiteindelijk acties in de echte wereld ondernemen! Een somber vooruitzicht.


A.I. based zelfhulp (voor wie het kan betalen)


Maar AI's kunnen ons natuurlijk ook persoonlijk helpen om betere versies van onszelf te worden. Ze leren onze valkuilen kennen en weten precies wat we op ieder moment nodig hebben. Ze zouden daarmee ook de ideale onvermoeibare coach of trainer kunnen worden zodat jij je doelen dit keer wel behaald. Waarschijnlijk worden deze AI's dan wel betaalde versies om zo zonder de belangen van investeerders te worden ontwikkeld en onderhouden. Wellicht kan straks enkel een maatschappelijke elite nog de beste kwaliteit AI's betalen. AI's die die wetenschappelijk onderbouwde antwoorden genereren en hun feiten uit Wikipedia halen.


Welke kant het op gaat weet natuurlijk niemand maar als we kijken naar de adaptatie van applicaties door de grote massa dan zal deze waarschijnlijk kiezen voor de gratis variant van AI assistenten. Kortom, AI's die op een andere wijze moeten worden terugverdiend en daarmee ook grote risico's met zich meebrengen.


So we're all doomed? Right?

Als je zo ver bent met lezen dan zou je natuurlijk verwachten dat ik met zalvende woorden kom en met een oplossing. Maar helaas heb ik die niet. Sorry. Sterker nog, ik heb het nog niet eens gehad over de disruptie van de arbeidsmarkt die nu al gaande is (daar blog ik later nog over).

Er wordt hard gewerkt aan regulering maar software reist in een oogwenk de gehele wereld over en of we het gebruik aan banden kunnen leggen is maar zeer de vraag. Wellicht kunnen we hardware producenten verplichten om gevaarlijke AI's te blokkeren maar iedere programmeur weet dat ook dit soort maatregelen te omzeilen is. En wat is gevaarlijk? Wat is goed en slecht? Een populistische partij zal argumenteren dat een AI die vooral complotten uitspuugt juist goed is voor de mens en ze wakker maakt.

Daarnaast denken veel landen nu nog alleen aan de voordelen die deze technologie hen kan bieden en hebben ze nog geen oog voor de risico's. Je wil als land natuurlijk niet achter lopen in de AI-race.


In deze nieuwe wereld wordt uiteindelijk de belangrijkste vraag: wat is er echt en authentiek? We kunnen immers niet meer op onze ogen en oren vertrouwen. Dit is een existentieel probleem om ons als mensheid bij elkaar te kunnen houden dus de druk om een oplossing te vinden neemt steeds meer toe. Hopelijk gaan de ontwikkelingen minder snel dan nu verwacht en komen deze oplossingen op tijd.


Kortom, het is allemaal heel dubbel en dat is vaker zo geweest met grote technologische doorbraken. Deze geest is uit de fles en wil daar echt niet meer in terug. Nu maar hopen dat we straks geen foute digitale vrienden maken in de toekomst.



Heb jij na het lezen van dit artikel opmerkingen, toevoegingen of wellicht een idee voor een oplossing? Laat hieronder dan even een berichtje achter want ik ben erg benieuwd naar je reactie.





3 weergaven

Recente blogposts

Alles weergeven
bottom of page