Inclusieve Artificial Intelligence

This text is only in Dutch.

 Computer display in flat styleErdinç Saçan schreef voor de Fontys Hogescholen een boek over «Inclusieve Artificial Intelligence».

Dit boek is een poging om aan de hand van interviews met experts uit het veld te kijken hoe AI op de juiste, onbevooroordeelde (neutrale) manier kan worden ingezet. Daarom legde Erdinç de experts twee vragen voor:

  • Kunnen we algoritmen inzetten voor het algemene belang, om zo discriminatie en ongelijkheid te bestrijden?
  • Algoritmes nemen steeds meer beslissingen voor ons. Hoe zorgen we ervoor dat dit op een inclusieve manier gebeurt?

Erdinç Saçan werkt bij Fontys Hogeschool ICT als docent en coördinator. Ook is hij als Practor verbonden aan ROC Tilburg en is hij trainer bij Google Digitale Werkplaats en ICM.

Mijn bijdrage is te vinden op pagina 76 t/m 79. Klik hier↓ voor de pdf-versie van het boek.

Erdinç Saçan: Inclusieve Artificial Intelligence; Fontys Hogeschool; Februari 2022

Mijn bijdrage in het boek

Het gebrek aan inclusiviteit is een maatschappelijk probleem, algoritmen kunnen slechts een hulpmiddel zijn om dit de wereld uit te helpen. De grootste uitdaging zit hem in de data waarmee we de modellen voeren. Het maakt niet uit of deze modellen wel of niet intelligent zijn. De data die we verzamelen over mensen, bijvoorbeeld hun digitale ‘footprint’, kunnen worden gebruikt om discriminerende systemen te maken.

Het is niet zo dat modellen vanzelf gaan discrimineren: fout ontworpen modellen gaan dat doen. En ontwerpen is een menselijke activiteit. Dat niet alle systemen bewust ontworpen zijn om te discrimineren is natuurlijk waar. Maar het is de verantwoordelijkheid van de ontwerper om na te denken over alle mogelijke consequenties van zijn systeem. Het is al een hele opgave systemen en modellen te maken die niet discrimineren, laat staan algoritmen te maken die helpen discriminatie te bestrijden.

“Het is al een hele opgave systemen en modellen te maken die niet discrimineren, laat staan algoritmen te maken die helpen discriminatie te bestrijden.”

Daar kan tegenin worden gebracht dat mensen ook discrimineren, al dan niet bewust. En dat algoritmen daar misschien geen last van hebben en objectiever kunnen beslissen. Maar telkens weer blijkt het lastig dit soort systemen te bouwen. De meest voorkomende oorzaak is dat deze systemen leren op basis van historische (bedrijfs-)data. In deze data kan ongelijkheid ingebakken zitten. Het blijkt heel moeilijk data van deze bias op te schonen.

Bij recruitment- en sollicitatiesystemen streeft men ernaar de impliciete vooroordelen van menselijke personeelsfunctionarissen te vermijden. Deze systemen beloven bijvoorbeeld geen onderscheid te maken naar gender. We zouden dan gender uit de gegevens waarmee we het keuze-algoritme voeden kunnen halen. Maar dat blijkt niet voldoende.

Ben je lid geweest van een vrouwenteam of op zwangerschapsverlof geweest? Het algoritme weet je feilloos als vrouw te typeren. En al lukt het bijvoorbeeld om genderneutraal te worden, gaan deze systemen op andere criteria discrimineren. Zo kan bij sollicitaties gezichtsherkenningssoftware worden gebruikt om te kijken of een sollicitant oprechte antwoorden geeft. Maar deze software werkt dan weer niet bij mensen met autisme of gezichtsverlamming. Mensen kunnen zich bewust worden van hun discriminerende gedrag en zelf hun gedrag daarop aanpassen. Algoritmen doen dat niet vanuit zichzelf.

“Ben je lid geweest van een vrouwenteam? Het algoritme weet je feilloos als vrouw te typeren.”

 Algoritmen worden ingezet om processen efficiënter te laten verlopen. Of om veel meer productie te maken. Zonder algoritmen kunnen we geen grote hoeveelheden data meer verwerken. Het probleem ontstaat wanneer we algoritmen beslissingen laten nemen.

Het gebruik van algoritmen wordt pas echt efficiënt wanneer we de mens uit het proces halen. Mensen zijn langzaam en duur. Het idee om iedere computerbeslissing door een mens te laten controleren heeft daarom zijn beperkingen. Het proces wordt te langzaam, te duur en eigenlijk onuitvoerbaar. Mensen de uitkomsten van computerbeslissingen laten controleren op ongelijkheid en discriminatie is volgens mij een menselijk onmogelijke taak. Vanuit bijvoorbeeld ergonomie en kennismanagement. Of het is in ieder geval economisch gezien problematisch. Vergelijk het met het handmatig opsporen van verkeerde content op sociale media.

“Zolang we niet in staat zijn ongelijkheid en discriminatie in het normale maatschappelijke verkeer weg te krijgen, blijven algoritmen altijd lapmiddelen.”

Misschien moeten we stoppen met proberen allerlei maatschappelijke problemen met technologie op te lossen. En daar dan de ultieme oplossing in te zien. Zolang we niet in staat zijn ongelijkheid en discriminatie in het normale maatschappelijke verkeer weg te krijgen, blijven algoritmen altijd lapmiddelen.

Het enige wat we kunnen doen, is zelf proberen inclusief te handelen en te denken. En deze waarden niet alleen in ons dagelijks gedrag uit te dragen, maar ook in de systemen die we maken. Daar zijn allerlei technieken en organisatievormen voor ontwikkeld. Daarbij moeten de waarden ‘gelijkheid’ en ‘non-discriminatie’ wel bovenaan staan. En moeten we geen systemen gebruiken die deze waarden niet honoreren. We moeten veel meer empathie hebben voor de slachtoffers van de onjuiste beslissingen van onze algoritmen. Neem de toeslagenaffaire maar als voorbeeld.

Ik constateer dat ‘foute’ AI, als in onethische, discriminerende systemen, aandacht krijgt in academische kringen. Ook aan universiteiten wordt onethische AI gemaakt en onderzocht. Maar de discussie wordt daar openlijk en scherp gevoerd. Daarbij gaat het vooral om de vraag of AI bijdraagt aan het gemeenschappelijke goed (‘common good’).

Binnen het bedrijfsleven wordt natuurlijk ook met AI gewerkt en geëxperimenteerd. Maar daarover wordt niet gepubliceerd en foute en discriminerende AI wordt hier eigenlijk nog ‘per ongeluk’ ontdekt. Vaak door buitenstaanders. Dus eigenlijk hebben we als buitenstaanders geen goed inzicht in wat er allemaal gebeurt bij bedrijven. Je moet goed begrijpen dat AI in het bedrijfsleven wordt ingezet om organisaties winstgevender te maken. Dat is logisch. Waar de universiteiten zich concentreren op niet-discriminerende, inclusieve AI, zal het bedrijfsleven zich dus vooral concentreren op winstgevende AI. Deze twee uitgangspunten hoeven elkaar natuurlijk niet te bijten, maar er kunnen wel waardeconflicten ontstaan.

Foto Public Domain door geralt via Pixabay