kunstmatige intelligentie

Wanneer computers taal leren uit alledaagse teksten van het internet, dan ontwikkelen ze dezelfde stereotypen over gender, ras, etniciteit en leeftijd als mensen hebben. Dit schrijven onderzoekers vandaag in het wetenschappelijke tijdschrift Science. Wetenschapsjournalist Bennie Mols vertelde erover in radioprogramma De Ochtend.

Kunstmatige intelligentie neemt menselijke vooroordelen over

Informatici van de Universiteit van Princeton (VS) en de Universiteit van Bath (GB) hebben een kunstmatig intelligent systeem getraind op een grote hoeveelheid bestaande Engelse teksten die op het web te vinden zijn. De teksten tellen in totaal 840 miljard woorden. Het gaat om algemene teksten, waaronder teksten van Google News, maar ook teksten van niet-professionele schrijvers. 

Associaties tussen woorden

De onderzoekers hebben een methode ontwikkeld om te bepalen hoe sterk de associatie tussen twee woorden is. De computer bekijkt tien woorden links en tien woorden rechts van het onderzochte kernwoord. Hoe verder weg een woord staat van het kernwoord, hoe zwakker de associatie.

In deze methode zijn bijvoorbeeld de woorden ‘kat’ en ‘hond’ nauw verwant, want mensen zeggen ‘ik gaf eerst mijn kat te eten en daarna mijn hond’. Maar ‘kat’ en ‘hond’ staan ver af van ‘koelkast’ en nog verder van een abstract concept als ‘rechtvaardigheid’. We zeggen niet ‘ik gaf mijn koelkast te eten’ of ‘ik gaf rechtvaardigheid te eten’. 

Mensen ontwikkelen in hun hoofd ook zulke associaties tussen woorden. Sinds eind jaren negentig hebben psychologen de Impliciete Associatie Test gebruikt om de tijd (in milliseconden) te meten die mensen nodig hebben om twee woorden met elkaar te associëren. Overal ter wereld blijken de reactietijden korter wanneer proefpersonen twee woorden meer met elkaar associëren, zoals ‘roos’ en ‘liefde’. De reactietijden zijn langer bij woorden die mensen niet met elkaar associëren, zoals ‘mier’ en ‘zorg’. 

De methode die de informatici hebben ontwikkeld is de computervariant van de Impliciete Associatie Test en heet GloVe (Global Vectors for Word Representation). GloVe meet dus hoe sterk kunstmatige intelligentie die getraind is op menselijke teksten, twee woorden met elkaar associeert. 

Computer neemt onze stereotypen over

Tweede auteur van het Science-artikel, Joanna Bryson van de Universiteit van Bath, vertelt hoe bijzonder de gevonden resultaten zijn: 'De computer leert de betekenis van taal zuiver en alleen uit statistische patronen in menselijke teksten, niet omdat hij deelneemt aan het menselijke leven. En wat zien we? De computer leert tot in hoge mate dezelfde associaties te leggen als mensen hebben. De resultaten van de Impliciete Associatie Test en van GloVe komen verbazingwekkend goed overeen.'

Veel associaties die de computer vindt, vinden wij volkomen onschuldig, omdat ze onze wereld niet negatief beïnvloeden. Niemand maakt bezwaar tegen de associatie van ‘roos’ of madeliefje’ met ‘zorg’ of ‘liefde’. Of tegen de associatie van ’mier’ of ‘mot’ met ‘viezigheid’ of ‘lelijk’. Of tegen de associatie van woorden voor muziekinstrumenten met ‘plezierig’ en woorden voor wapens met ‘onplezierig’. 

Anders wordt het wanneer het gaat om bijvoorbeeld gender, ras, etniciteit of leeftijd. Dan kunnen we associaties als discriminerende stereotypen ervaren. Zo laat de GloVe-test zien dat de computer leert om woorden als ‘vrouw’ en ‘meisje’ nauwer te associëren met woorden als ‘gezin’, ‘familie’ en ‘kunst’ dan met ‘carrière’ of ‘wetenschap’. 

Daarentegen leert de computer om de woorden ‘man’ en ‘jongen’ juist weer sterker te associëren met ‘carrière’ of ‘wetenschap’. Ook pijnlijk: de computer leerde om Europees-Amerikaanse achternamen eerder te verbinden met woorden als ‘plezierig’ dan Afrikaans-Amerikaanse achternamen. 

Kunstmatige intelligentie neemt menselijke vooroordelen over

Taal beïnvloedt ons denken

De onderzoekers vergeleken de GloVe-uitkomsten voor associaties tussen geslacht en beroep ook met het werkelijke percentage vrouwen voor vijftig beroepen in de VS in 2015. Dan blijkt dat de GloVe-uitkomsten voor negentig procent correleren met de echte percentages. Dokters en managers zijn ook volgens die computer die alleen teksten heeft gelezen maar onze echte wereld niet kent, vooral man, en verplegend personeel vooral vrouw. 

Is het erg dat kunstmatige intelligentie dezelfde associaties leert als mensen? Vaak niet, maar soms wel. Dat hangt af van hoe we de slimme computer gebruiken. Bij automatisch vertalen willen we een vertaling die zoveel mogelijk menselijk lijkt. Maar wanneer we de computer gebruiken om cv’s automatisch te beoordelen bij een sollicitatie, willen we liever niet dat de computer discrimineert op basis van iemands achternaam. Volgens Bryson moeten we dat laatste oplossen door een mens in de lus van de kunstmatige intelligentie te laten en de computer expliciet de regel te geven dat hij cv’s niet op iemands naam beoordeelt. 

'Hoe wij als mensen denken, beïnvloedt de taal die we gebruiken', zegt Bryson, 'maar het is ook andersom: de taal die we gebruiken, beïnvloedt ons denken. In de jaren zeventig was de regel om naar woorden als ‘dokter’ te verwijzen als ‘hij’. Later zijn we daar expres vaker ‘zij’ voor gaan gebruiken of expliciet ‘hij of zij’. We kunnen ons taalgebruik dus aanpassen als we denken dat dat helpt om bepaalde vooroordelen tegen te gaan.'

Onderzoek naar impliciete stereotypen

Bryson ziet grofweg twee soorten toepassingen van GloVe. 'Sociale wetenschappers staan te trappelen om dit nieuwe onderzoeksinstrument toe te passen op digitaal beschikbare teksten. Zitten er in onze teksten stereotypen die we niet hadden verwacht? Kunnen we zien dat stereotypen door de tijd heen veranderen?' Eerder onderzoek heeft bijvoorbeeld laten zien dat in de afgelopen vijftien jaar de impliciete stereotypen tegenover homo’s en lesbiennes licht maar gestaag zijn gedaald in het gebruik van de Engelse taal. Bryson: 'Ook is GloVe een prachtig instrument om te onderzoeken hoe wij denken. De computer kan ons veel associaties laten zien waarvan we ons niet bewust zijn.'

Ten slotte kan het onderzoek gebruikt worden om bewuster om te gaan met kunstmatige intelligentie die natuurlijke taal gebruikt. Bryson: 'Ik denk niet dat het een goed idee is om de computer impliciete vooroordelen te laten ont-leren, want daarmee gooi je ook een heleboel echte, relevante feiten over de wereld weg. Het is beter om op een transparante manier regels in te bouwen om achteraf discriminerende stereotypen te vermijden.'

In zekere zin leert de computer dus heel goed hoe wij mensen taal gebruiken, alleen gaat hij dezelfde stereotypen ontwikkelen als die impliciet in onze taal zitten. Taal is een weerspiegeling van menselijke cultuur. 'Sommige mensen zien kunstmatige intelligentie als zuiver rationeel of objectief', zegt Bryson, 'andere zien het als bovenmenselijk of buitenaards. Maar wij laten zien dat kunstmatige intelligentie gewoon een verlengstuk is van onze eigen cultuur.'

Zo mens, zo computer. 

Aylin Caliskan et al. Semantics derived automatically from language corpora contain human-like biases. Science, 14 april 2017