Terug naar overzicht

Hoe gevaarlijk is de oprukkende AI-technologie?

‘Laat je niet afleiden en kijk naar de échte problemen.’

Eind maart 2023. De grote namen uit de techwereld, waaronder X-CEO Elon Musk en Apple-oprichter Steve Wozniak, roepen via een open brief op om de ontwikkeling van AI-systemen krachtiger dan GPT-4, zes maanden stil te leggen. Reden: ‘ernstige risico’s voor de samenleving en de mensheid’. Moraalfilosofe en professor computerethiek Katleen Gabriels (40) vindt die reacties overtrokken.

Zegt de naam Tony Fadell u iets?”, vraagt professor Katleen Gabriels ons. Een oude skateboarder uit het LA van de jaren ‘80, proberen we. “Tenzij je deel uitmaakt van de internationale techwereld zegt die naam niet meteen iets. Nochtans is hij voor een groot stuk verantwoordelijk voor het feit dat onze tieners vandaag uren en dagen kromgebogen achter hun schermpjes gekluisterd zitten. Meer nog, diezelfde Fadell, één van de vaders van de iPod die later de iPhone hielp ontwikkelen, heeft vandaag spijt van zijn uitvinding, nu hij zijn eigen kinderen achter hun schermpje ziet verdwijnen. En er zijn nog spijtoptanten. Twitter-ontwikkelaar Chris Wetherell, de man die de retweetknop heeft bedacht. Hij dacht dat het een mogelijkheid was om de stem van minderheden te laten klinken. Wat lukte, kijk maar naar de #MeToo-beweging en Black Lives Matter. Maar helaas kwamen er ook de polarisering en de heksenjachten. Wetherell heeft daar nu spijt van en vergelijkt de retweetknop met het geven van een geladen wapen aan een vierjarige. Maar… zo’n vaart hoeft het niet te lopen.”

‘De uitvinder van de iPhone heeft vandaag spijt van zijn uitvinding, nu hij zijn eigen kinderen achter hun schermpje ziet verdwijnen.’

 

Second Life
De Limburgse Katleen Gabriels is vandaag verbonden aan de Universiteit van Maastricht, waar ze onderzoek doet, onderwijs geeft en opleidingsdirecteur is van de interdisciplinaire bacheloropleiding Digital Society. Maar als kind droomde ze van de journalistiek. Zo schreef ze als tiener nog voor Het Belang van Limburg en als student voor het studentenblad van de KU Leuven, Veto. Vandaar haar keuze voor Germaanse talen aan de Leuvense universiteit, om later de journalistiek in te gaan. Na haar talenstudies besloot ze moraalfilosofie in Gent te studeren, een richting die haar boeide. “Het was ook de periode waarin Second Life, een sociale computerwereld, opgang maakte”, vertelt Gabriels. “De makers ervan beloofden dat mensen er konden worden wie ze wilden zijn. Als moraalfilosoof vond ik dat fantastisch. Want als mensen zelf kunnen kiezen, wie worden ze dan? Die wereld beloofde ook veel vrijheid. Hoe gaat men dat dan reguleren? Wat gebeurt er als iemand een morele grens overschrijdt? In mijn huidig onderzoek staat artificiële intelligentie (AI) meer centraal. Zoals de vraag, in hoeverre kan AI ons moreel denken helpen?

Partijdige technologie
De kans dat het gesprek zal gaan over het schermgebruik van de kinderen of kleinkinderen en de toch wel erg snelle opkomst van AI, wordt elk communiefeest groter. “We doen in ons dagelijkse leven vaak een beroep op AI. Met Siri, de virtuele assistent van Apple, de tijdlijn van Facebook en de zoekmachine van Google. We zijn erg afhankelijk van de mobiele telefoon. Mensen die vijftien jaar geleden achteloos hun schouders ophaalden met de berichtgeving over de komst van de smartphone, keren vandaag terug naar huis als ze hun smartphone vergeten zijn. De digitale maatschappij heeft ons gedrag veranderd, onze normen en onze waarden. Maar tegelijk gaan grote techbedrijven met die vele data die wij hen vaak ‘stoemelings’ bezorgen aan de slag. Technologie is immers nooit neutraal. Algoritmen bepalen wanneer we wat en hoe te zien krijgen. Ik denk niet dat dit goed tot iedereen is doorgedrongen. Mensen zien algoritmen vooral als wiskunde, een neutraal vakgebied. Maar dat is het niet. Ook commerciële belangen beïnvloeden de resultaten. Het is een enorm ethisch probleem dat veel mensen zich daar niet bewust van zijn.

‘Mensen die vijftien jaar geleden achteloos hun schouders ophaalden met de berichtgeving over de komst van de smartphone, keren vandaag terug naar huis als ze hun smartphone vergeten zijn.’

Hoe gevaarlijk is de oprukkende AI-technologie_POMblad_kinderen en smartphones

Maar die existentiële dreiging van AI? Daar ga ik niet in mee. Kijk, AI zoekt naar patronen in grote hoeveelheden gegevens om daar vervolgens zinnige dingen uit te halen. AI kan dus enkel aan de slag met informatie uit het verleden via algoritmen, en kan geen nieuwe ideeën bedenken. Zo was er een paar jaar geleden een onderzoek met zelfrijdende auto’s. Op één stopbord plakten een viertal stickers. Als menselijke chauffeur ga je niet meteen denken: moet ik nu stoppen of niet? Maar de computer van de zelfrijdende auto raakte verward door die stickers. Die kon immers geen stopbord meer herkennen.”

Een losgeslagen algoritme in Nederland
Toch moet je niet alleen maar op je hoede zijn voor de intenties van de techbedrijven, want ook voor overheden die te zeer leunen op een AI-gestuurd algoritme, is het opletten geblazen. Zo is het in gidsland Nederland in 2017 met de ‘Toeslagenaffaire’ erg fout gelopen. “In de media verschenen eerder verhalen over frauderende Bulgaren met Nederlandse toeslagen, wat wij hier in Vlaanderen ‘het kindergeld’ zouden noemen”, vertelt Gabriels. “Dat kon natuurlijk niet en vooral: het mocht nooit meer gebeuren. En wat zie je dan? De fraudeur wordt de norm. Plotseling is iedereen een potentiële fraudeur. De Nederlandse Belastingdienst heeft vervolgens die controle uitbesteed aan een algoritme. Wat zowel onethisch als illegaal was, was dat ze bepaalde profielen extra in het oog hielden. Bijvoorbeeld mensen met een dubbele nationaliteit en mensen met een ‘exotisch’ klinkende naam. Wat dat laatste ook moge betekenen. Daarbij bleek ook dat door een vergetelheid, of een klein foutje, je door het algoritme meteen als een fraudeur werd gelabeld. Het gevolg was dat duizenden mensen als fraudeur werden bestempeld. Die botsten tegen de ‘blackbox’ van het systeem. Geen mens die je erover kon bellen om je verhaal te doen. Het systeem had het zo beslist. Mensen moesten soms tot 80.000 euro terugbetalen. Gigantische bedragen. En, helaas, van het moment dat je geldzorgen hebt, kan je je job niet meer goed doen, minder goed voor je kinderen zorgen, laat je je slaap. Er zijn mensen die hun kinderen hierdoor kwijt zijn geraakt, terwijl een overheid hen juist moest beschermen. Uiteindelijk is de regering toch in actie gekomen, maar toen was het kwaad al geschied. Het kabinet-Rutte III trad hierdoor op 15 januari 2021 zelfs voortijdig af. Dus je moet niet meteen naar de dwingende AI-robots van de toekomst kijken, loer even over de landsgrens en je ziet dat het fout kan lopen. Want het is één ding om in melanomen patronen te vinden, en machine learning te gebruiken bij het helpen diagnosticeren van huidkanker, het is een ander ding om in menselijk gedrag patronen te vinden op basis van profilering. Laat steeds een mens van vlees en bloed meekijken.”

Hoe gevaarlijk is de oprukkende AI-technologie_POMblad_Robot

‘Het is één ding om machine learning te gebruiken bij het helpen diagnosticeren van huidkanker, het is een ander ding om in menselijk gedrag patronen te vinden op basis van profilering.’

Paradox van de transparantie
“De AI-pioniers orakelen wel heel erg graag over de toekomstige gevolgen voor onze jobs en maatschappij”, gaat Gabriels verder. “Tegelijkertijd zwijgen ze zedig over de duizenden onderbetaalde werknemers wiens job erin bestaat voorbeelden van haatspraak, geweld en seksueel misbruik als dusdanig te labelen, zodat een systeem als ChatGPT leert die te herkennen en weg te filteren. Artificiële intelligentie kan namelijk niet zonder kwalitatieve data, zoals tekst, afbeeldingen, geluiden en video’s. Daarmee kan het uiteindelijk patronen herkennen en een voorspelling doen. Het magazine Time onthulde eerder dit jaar hoe Keniaanse werknemers die in onderaanneming voor OpenAI, het bedrijf achter ChatGPT, werkten daar minder dan twee dollar per uur voor kregen. Achter de blinkende AI-façade zit soms psychologisch erg belastende uitbuiting, aldus Time. Gelukkig zijn er nog goede journalisten die door de mist kunnen kijken. Want de arrogantie en macht van techbedrijven zorgt er nu eenmaal voor dat dit soort oneerlijke praktijken helaas minder aandacht krijgen. De ‘bedreiging’ van AI is met andere woorden niet zozeer existentieel in de toekomst, dan wel sociaal in het heden. Het gaat om onethische praktijken in het hier en nu. Wees dus kritisch en nuanceer. Want als het over artificiële intelligentie gaat, trappen mensen vaak in de door de techbedrijven opgezette val van het zwart-witdenken. Ik noem het de paradox van de transparantie: aan de ene kant maakt AI en bij uitbreiding technologie de wereld en ons gedrag online transparanter, maar zelf spuien bedrijven mist over hun eigen werkzaamheden.”

Europa toomt techgiganten in
De Europese Commissie duidde begin september zes techgiganten – Amazon, Apple, Alphabet, Meta, Microsoft en ByteDance, het Chinese moederbedrijf van TikTok – aan als poortwachters. Volgens de Commissie hebben deze bedrijven door hun macht een erg grote impact op de digitale wereld. Binnen de zes maanden moeten ze voldoen aan de regels van de Europese Digital Markets Act (DMA). Gebeurt dat niet, dan wordt er met zware boetes gezwaaid: tot 10 procent van de wereldwijde omzet en 20 procent bij herhaalde inbreuken. Deze wetgeving moet de macht van techgiganten indijken en de concurrentie versterken. Persoonsgegevens mogen alleen voor doelgerichte reclame gebruikt worden. De Digital Services Act (DSA), de tweede wet, beschermt gebruikers dan weer tegen misleidende praktijken en desinformatie op zoekmachines en onlineplatforms. “Het is heel goed dat Europa het initiatief heeft genomen, al enkele jaren geleden”, vindt Gabriels. “Europa is een koploper en dwingt mensen erover na te denken. Met wetgeving verander je de wereld. Want die techbedrijven gaan zelf niet vragen om wetgeving. Maar wat tegelijk ook heel mistig is, is de lobbymachine die in Brussel aanwezig is. We hebben enigszins inzage in hoeveel gigantische bedragen er geïnvesteerd worden in die lobbymachine. Maar we weten eigenlijk niet wat er dan gebeurt.”

‘Europa is een koploper en dwingt mensen over AI na te denken. Met wetgeving verander je de wereld. Want die techbedrijven gaan zelf niet vragen om wetgeving.’

 

Meer filosofen
Misschien moeten de techneuten samen evolueren met de filosofen? “Filosofen hebben de waarheid niet in pacht, maar ik denk wel dat we, net zoals we vandaag medische ethiek heel normaal vinden, tot een technologische ethiek moeten komen. En dan kom ik weer terug op Tony Fadell. Die pleit vandaag zelfs voor een soort van eed van Hippocrates voor ontwikkelaars. Want als er iemand de maatschappij vorm heeft gegeven, dan is het wel Fadell en zijn team die achter de eerste iPhone zaten. ‘Niemand wees ons erop dat wat wij als twintigers hadden ontworpen, wel eens heel individualistisch zou zijn’, zegt hij nu zoveel jaren later. Dus ja, het is goed dat er morele en filosofische vragen gesteld worden tijdens het maakproces.

Dat de vraag gesteld wordt: ‘Willen we dit wel?’ Zo zit ik sinds vorig jaar in de adviesraad van Smartschool, het veelgebruikt digitaal schoolplatform in het Vlaams secundair en basisonderwijs waar de Limburgse groep Cegeka een meerderheidsaandeel in heeft. Die adviesraad is vrij recent opgericht, terwijl Smartschool al zo’n twintig jaar bestaat. Nu pas stellen we ons de vraag: willen we dit wel, dat ouders meteen de punten van hun kinderen zien? Dat ouders zo dicht op hun kinderen zitten? Want Smartschool is niet neutraal, het geeft de samenleving en relaties tussen ouders en kinderen, tussen ouders en leerkrachten enzovoort, mee vorm. En dan is het aan filosofen en nieuwsgierige journalisten om daar de juiste vragen over te stellen.”

Abonneer je op POMblad!

POMblad in de toekomst ontvangen? Laat dan hieronder je gegevens achter.

Abonneren is gemakkelijk en gratis.

Na het achterlaten van je gegevens krijg je POMblad elke zes maanden automatisch in de brievenbus.

 

  • (Optioneel)
  • (Optioneel)
  • Sectie-einde

  • Sectie-einde

  • This field is for validation purposes and should be left unchanged.
© POM Limburg 2024
POM Limburg voert het sociaaleconomisch beleid van de provincie Limburg uit.
limburg

Wij maken gebruik van cookies of gelijkaardige technologieën (bv. pixels of sociale media plug-ins) om o.a. uw gebruikservaring op onze website zo optimaal mogelijk te maken. Daarnaast wensen wij analyserende en marketing cookies te gebruiken om uw websitebezoek persoonlijker te maken, gerichte advertenties naar u te verzenden en om ons meer inzicht te geven in uw gebruik van onze website.

Gaat u ermee akkoord dat we cookies gebruiken voor een optimale websitebeleving, opdat wij onze website kunnen verbeteren en om u te kunnen verrassen met advertenties? Bevestig dan met "OK".

Wenst u daarentegen specifieke voorkeuren in te stellen voor verschillende soorten cookies? Dat kan via onze cookie policy. Wenst u meer uitleg over ons gebruik van cookies of hoe u cookies kan verwijderen? Lees dan onze cookie policy.