Kunstmatige intelligentie
Algoritmen zijn als keukenrecepten

De broncode werkt bijna hetzelfde als een keukenrecept: algoritmen bepalen ons dagelijks leven.
De broncode werkt bijna hetzelfde als een keukenrecept: algoritmen bepalen ons dagelijks leven. | Foto (fragment): © Adobe

Voor een lekker gerecht moeten de ingrediënten evenwel met zorg worden uitgekozen. Wij spraken met algoritme-expert Sebastian Schelter over kunstmatige intelligentie, hoe die in onze plaats beslist en welke invloed dat heeft op ons leven.

Von Johannes Zeller

Artificiële of kunstmatige intelligentie (artificial intelligence, AI) en zelflerende computers: het klinkt nog steeds een beetje als sciencefiction, maar het maakt allang deel uit van ons dagelijks leven. Algoritmen bepalen niet alleen wat we bij streamingdiensten te horen of te zien krijgen. Op sommige plaatsen beslissen ze ook wie er wel of niet een lening krijgt, of voorspellen ze hoe groot de kans is dat een veroordeelde opnieuw een misdrijf zal begaan. Maar wat is een algoritme eigenlijk en hoe beïnvloedt kunstmatige intelligentie ons leven?

Het basisrecept: het algoritme

“Een algoritme is in de eerste plaats een reeks van verschillende stappen. Je kunt je dat voorstellen als een keukenrecept. Om te beginnen heb je de ingrediënten: de input van het computerprogramma. Vervolgens vertelt het recept stap voor stap wat er moet gebeuren om het eten op de juiste manier klaar te maken”, vertelt algoritme-expert Sebastian Schelter. Hij doet onderzoek naar databeheer en machinaal leren aan de Universiteit van Amsterdam.

Zo bekeken zijn algoritmen in feite niets nieuws; elk computerprogramma werkt volgens dit principe.  Maar wat ons echt interesseert, als we vandaag spreken over de groeiende invloed van algoritmen, is machinaal leren: “Bij een traditioneel computerprogramma worden alle stappen voor het oplossen van een probleem bepaald door een mens. Bij sommige problemen vinden we het echter zeer moeilijk om de computer precies te vertellen hoe hij het probleem kan oplossen”, verduidelijkt Schelter. Daarom gaat men in het geval van machinaal leren anders te werk.

Sebastian Schelter doctoreerde aan de Technische Universität Berlin en werkte als onderzoeker aan de New York University en bij Amazon Research. Als junior hoogleraar aan de Universiteit van Amsterdam legt hij zich toe op problemen op het raakvlak van datamanagement en machinaal leren.
Sebastian Schelter doctoreerde aan de Technische Universität Berlin en werkte als onderzoeker aan de New York University en bij Amazon Research. Als junior hoogleraar aan de Universiteit van Amsterdam legt hij zich toe op problemen op het raakvlak van datamanagement en machinaal leren. | Foto: © Sebastian Schelter

Koken voor gevorderden: het lerend algoritme

“Laten we een eenvoudig voorbeeld nemen: een spamfilter, die het onderscheid moet maken tussen reclameberichten en persoonlijke mails. Het is voor een mens niet eenvoudig om zo een computerprogramma te schrijven. Je kunt verschillende regels en criteria bepalen waaraan reclameberichten in theorie herkend kunnen worden, zoals het tijdstip waarop ze verzonden worden of het aantal woorden dat ze bevatten. Maar vroeg of laat bots je toch op grenzen van wat een mens kan”, zegt Schelter.
Bij machinaal leren wordt een computer niet meer expliciet geprogrammeerd, maar worden hem voorbeelden getoond. Op basis daarvan vindt de computer zelf de beste manier om het probleem op te lossen. De kok geeft dus niet meer het hele recept, alleen nog het gewenste resultaat.

“In dit geval zou je bijvoorbeeld 1000 e-mails kunnen ingeven die je wel wilt ontvangen, en een hele reeks reclameberichten die je niet wilt ontvangen. Op basis van die voorbeelden gaat het algoritme inschatten of een nieuwe mail al dan niet een reclamebericht is. Het grote verschil is dat bij traditioneel programmeren alle stappen uiterst nauwkeurig bepaald worden door de mens, terwijl lerende algoritmen hun eigen selectiecriteria creëren aan de hand van voorbeelden en statistische waarschijnlijkheden.”

De mens te slim af

Lerende algoritmen kunnen bepaalde problemen niet alleen sneller oplossen dan mensen, maar ook beter. Toen het programma Pluribus het in 2019 opnam tegen professionele pokerspelers en van hen won, liet de kunstmatige intelligentie niet alleen zien dat ze in staat is om bij te leren, maar ook dat ze zelfs beter kan bluffen dan een mens. En hoe meer ze kan, hoe groter haar invloed wordt. Bijvoorbeeld in de gezondheidssector, de financiële wereld of de wereld van justitie.

Ook in Duitsland krijgen de meeste mensen dagelijks te maken met beslissingen van slimme algoritmen. “Wetenschappelijk gezien gaat het om abstracte wiskundige processen, die op veel domeinen kunnen worden toegepast; bijvoorbeeld om te bepalen hoe groot de kans is dat iemand zijn lening zal aflossen”, zegt Schelter.

In landen als de VS en Australië worden algoritmen ervan verdacht dat ze bij hun beslissingen bepaalde etnische groepen discrimineren. “Dat ligt deels aan het feit dat die discriminatie al in de voorbeelden zit die het algoritme te zien kreeg. Als het algoritme vervolgens blind zijn werk doet, reproduceert het die discriminatie”, zo legt de expert de kern van het probleem uit.
 

Een algoritme met tact?

Waar de grenzen van algoritmen en AI horen te liggen is in de eerste plaats een ethische vraag, meer dan een technische. Of kan men een algoritme ook “tact” bijbrengen?

“Dat is op dit moment een reëel probleem. Persoonlijk denk ik dat de gevolgen van een foute beslissing door een algoritme in sommige domeinen niet zo erg zijn, bijvoorbeeld wanneer de streamingdienst mij het verkeerde liedje voorstelt. Maar er zijn ook domeinen waar men het algoritme weliswaar kan raadplegen voor een aanbeveling, maar waar de mens het laatste woord moet hebben. En tot slot zijn er domeinen die men sowieso moet overlaten aan het menselijke inschattingsvermogen”, vindt Schelter.

“In de VS worden algoritmen gebruikt die inschatten hoe groot de kans is dat een gevangene zal hervallen. Rechtbanken en commissies die over een vervoegde vrijlating moeten beslissen, krijgen toegang tot die data.” Wat de vraag doet rijzen: is dat gerechtigheid?

“Een domein als gerechtigheid valt nauwelijks in mathematische modellen te vatten, want daarbij draait het vooral om filosofische, politieke en juridische vragen. Iedereen heeft zijn eigen idee van gerechtigheid, en het is mathematisch onmogelijk aan al die ideeën tegelijk te voldoen.”

Ook studies waarin de billijkheid van beslissingen met behulp van algoritmen onderzocht wordt, geven te kennen dat er op het vlak van tact nog een inhaalbeweging nodig is. Op veel vlakken zou men het eerst ethisch, politiek en juridisch eens moeten worden over hoe bepaalde dingen “correct” beslist kunnen worden. Pas dan kan men die taak toevertrouwen aan een algoritme. “En dan nog blijft de filosofische en politieke vraag of we dit überhaupt willen”, besluit Schelter.

Top