Kunstmatige intelligentie

Er lopen twee domme blondjes, elk aan een verschillende kant van een drukke weg. Roept de een tegen de ander: “Hoe kom je aan de overkant?” waarop de andere antwoordt: “Maar je bent toch al aan de overkant?” Ok, gaan we het hebben over domme blondjes? Nee, maar ik hoorde gisteren deze mop en ik vond hem leuk.

Dat ‘blondjes’ dommer zouden zijn dan mensen met een andere haarkleur is overigens een fabeltje. Uit een Amerikaans onderzoek van de Ohio State University uit 2016 blijkt dat vrouwen met van nature blond haar zelfs iets slimmer zijn dan vrouwen met een andere haarkleur. Blonde vrouwen hadden gemiddeld een IQ van 103,2 tegen een IQ van 102,7 voor vrouwen met bruin haar, 101,2 voor vrouwen met rood haar en 100,5 voor vrouwen met zwart haar. Kortom, een fabeltje.

000000 haar

Dresden 1983: Een vrouw met rood haar en een vrouw met donker haar aan het werk; foto Eugen Nosko; Deutsche Fotothek; Wikipedia

Wel hebben vrouwen met blond haar last van het stereotype. Het heeft impact op het krijgen van een baan, het maken van promotie en andere sociale ervaringen, aldus één van de onderzoekers van de universiteit, zoals geciteerd in een artikel in het AD.

Maar goed, nog een domme-blondjes-mop. Vraag: wat krijg je als een dom blondje haar haar donker verft? Antwoord: kunstmatige intelligentie. We weten inmiddels dat dit niet klopt – als u dat niet snapt, dan bent u echt blond –  maar ik schrijf hem hier op omdat ik nu bij het eigenlijke onderwerp van deze blogpost ben: kunstmatige intelligentie. De aanleiding hiervoor is een artikel in de Volkskrant van vandaag. Onder de kop ‘Hoe zelflerende robots al onze vooroordelen overnemen’ stond een verhaal hoe een experiment van Microsoft met een ‘chatbot’ – dat is een robot die met behulp van kunstmatige intelligentie en algoritmes meepraat in een discussiegroep  – helemaal mis ging. Ik citeer even het begin van het artikel:

Niets menselijks blijkt de chatbot vreemd, ondervond Microsoft vorig jaar, toen het softwareconcern een kunstmatig intelligente meisjesbot losliet op internet. Binnen 24 uur trok Tay, zoals ze werd genoemd, vuilbekkend over Twitter, onder meer roepend dat Hitler gelijk had, feministen in de hel moeten branden en oud-president Bush achter de aanslagen van 11 september zit.”

En nog een stukje, verderop uit het artikel: “AI-systemen die hun kennis baseren op gewonemensentaal, ontwikkelen veelal dezelfde impliciete vooroordelen als wij. Dit ontdekten onderzoekers van onder meer de universiteit van Princeton in een studie die donderdag verscheen in Science. Daaruit blijkt dat culturele stereotypen hardnekkig voortleven in AI-systemen die op grote schaal worden gebruikt. Dat is problematisch, omdat dit soort systemen meer en meer wordt toegepast in de dagelijkse praktijk. Denk aan persoonlijke assistenten als Siri of Alexa, of aan de Japanse verzekeraar Fukoku Mutual, die sinds deze maand ziekenhuisdeclaraties van klanten laat afhandelen door Watson, een kunstmatig intelligent systeem van IBM. Als AI-systemen dezelfde vooroordelen laten meespelen in hun beslissingen, zou ongemerkt seksisme of racisme een rol kunnen gaan spelen bij bijvoorbeeld het toekennen van schadevergoedingen”

Dat deze AI-systemen vooroordelen kunnen hebben, vind ik niet zo verwonderlijk. Ze maken immers gebruik van algoritmes, geschreven door programmeurs en van input afkomstig van gebruikers. Beide groepen kunnen vooroordelen hebben. De onderzoekers van de studie in Science waarschuwen dan ook voor het klakkeloos gebruiken van kunstmatige intelligentie systemen.

Dat is een waarschuwing die ik mijzelf ook moet aantrekken. Soms, als ik geen zin heb om zelf een blogpost te schrijven, laat ik dit doen door een slim programma dat dit voor mij doet. Dan krijg je een blogpost zoals deze. Had u door dat deze door een computer is geschreven? (En voor het geval u er helemaal niks aan vond; dat is dus niet mijn schuld. – zegt de computer.)