Algoritmes, ethiek en christelijke waarden

This text is only in Dutch.

Clasped handsMet de opkomst van kunstmatige intelligentie, is de discussie rondom ethiek en algoritmes weer sterk naar voren gekomen. De digitale voetafdruk die je achterlaat, de zogenaamde “digital footprint”, wordt gebruikt om je als persoon te typeren. Dat is handig om op jouw gerichte reclames aan te bieden. Maar dit digitale spoor wordt ook gebruikt om jouw toekomstige gedrag te voorspellen. Zo wordt in de Verenigde Staten kunstmatige intelligentie gebruikt om te bepalen of een gedetineerde na vrijlating mogelijk gaat recidiveren. Is die kans groot, dan komt de gevangene niet in aanmerking voor vervroegde vrijlating.

Algoritmes en ethiek

Veel van deze computerapplicaties zijn vaak niet nauwkeurig genoeg. Dat kan ernstige persoonlijke consequenties hebben: wat gebeurt er als je bank je onterecht als fraudeur aanmerkt? De applicaties worden ook gevoed met data die zogenaamde ‘bias’ bevat. De data kan onvolledig of niet-representatief, verouderd of van slechte kwaliteit zijn. Bias in data is eigenlijk vastgelegde vooroordelen. Dit kan bedoeld of onbedoeld discriminatie in de hand werken, wanneer data bijvoorbeeld selecteert op huidskleur, geslacht of afkomst. De data die wordt gebruikt is altijd historisch. En we weten allemaal dat in het verleden, en ook nu, discriminatie voorkomt. Deze kan in de data, waarmee algoritmes worden getraind, impliciet zijn vastgelegd.

“Men denkt dat ‘big data’ het probleem van discriminatie omzeilt omdat je te maken hebt met big data sets, maar in feite wordt big data gebruikt voor steeds preciezere vormen van discriminatie – een vorm van data redlining.” (Kate Crawford)

Bijna iedere week verschijnt er wel in de krant of vaktijdschrift een artikel waarin slecht werkende algoritmes worden besproken. De laatste tijd staat werving en selectie op de voorgrond. In een poging de vooroordelen van menselijke recruiters te omzeilen, zijn systemen gebouwd die evenveel discrimineren. Een recent voorbeeld is van Amazon. Een AI-gebaseerd systeem zou de selectie van sollicitanten doen, om zo de (onbewuste) discriminatie bij menselijke personeelsfunctionarissen te omzeilen. Maar het systeem, dat getraind was op de beslissingen van deze functionarissen, bleek evenveel te discrimineren. Het blijkt dat het vervangen van menselijke beslissers door zogenaamde ‘objectieve’ algoritmes moeilijker is dan gedacht. De algoritmes nemen de vooroordelen van de mensen, die de algoritmes trainen en gebruiken, over.

Gelukkig wordt dit nu bediscussieert in de wetenschap, overheid en toezichthouders. Dit heeft geleid tot sets van ethische waardes en normen waaraan algoritmes moeten voldoen. Ik ga hier niet in op de verschillende lijsten van waardes die door verschillende organisaties zijn opgesteld. Ze komen eigenlijk allemaal op hetzelfde neer, ook al gebruiken ze andere bewoordingen. Als voorbeeld geef ik hier de zes ethische principes die door “Rome Call For AI Ethics, een samenwerking tussen de Rooms-Katholieke Kerk, overheid en industrie, zijn opgesteld:

  1. Transparantie: Kunstmatige intelligentie-systemen moeten in principe verklaarbaar zijn.
  2. Inclusie: Er moet rekening worden gehouden met de behoeften van alle mensen, zodat iedereen kan profiteren van de best mogelijke omstandigheden om zich te uiten en om te groeien.
  3. Verantwoordelijkheid: Ontwerpers en ontwikkelaars van kunstmatige intelligentie-oplossingen moeten verantwoordelijk en transparant handelen.
  4. Onpartijdigheid: Systemen mogen niet op basis van vooroordelen worden gecreëerd of bediend, met het oog op de bescherming van de menselijke gelijkheid en waardigheid.
  5. Betrouwbaarheid: Kunstmatige intelligentie-systemen moeten betrouwbaar werken.
  6. Veiligheid en privacy: Kunstmatige intelligentie-systemen moeten veilig werken en de privacy van gebruikers respecteren.

Eigenlijk moeten alle computersystemen voldoen aan deze waarden. Niet alleen die systemen die kunstmatige intelligent zijn.

Christelijke waarden

De ethische principes die nu opgang vinden, zijn gebaseerd op de grote christenhumanistische waarden van onze westerse cultuur. Als christenen kunnen we deze waardes alleen maar onderschrijven. De vraag die ik me stel: in hoeverre kunnen de typisch christelijke waardes hieraan iets toevoegen? Of kunnen we gewoon meeliften met de ethische ontwikkelingen en hoeven we ze alleen maar te ondersteunen? Wat kunnen wij als christenen toevoegen aan deze discussie?

Recente onderzoeken hebben uitgewezen dat veel bedrijven en hun managers ethische vraagstukken rondom kunstmatige intelligentie vooral als bedrijfsrisico’s zien. Wanneer het publiekelijk uitkomt dat hun computersystemen zich onethisch gedragen, kan dat leiden tot imagoschade, omzetverlies en zelfs juridische repercussies. Deze risico’s moeten vermeden worden en bedrijven zullen proberen hun systemen tenminste aan de minimale ethische eisen te laten voldoen.

Voor christenen is ethiek niets iets wat we alleen moeten doen om schade te voorkomen, maar vooral iets wat we willen doen. Christus vraagt ons het maximale te doen, in plaats van het minimale. Wat we doen wordt niet alleen bepaald wat we moeten doen, maar ook wat we willen doen om het Koninkrijk van God dichterbij te brengen.

Voor mij geldt daarom: alleen voldoen aan de minimale ethische standaarden is niet voldoende. We moeten strenger zijn. Ook computersystemen moeten niet alleen de negatieve gevolgen voor groepen mensen beperken, ze moeten ook positieve gevolgen hebben voor de minder bedeelden. Maar hoe geven we dit vorm als Christenen? Vanuit welke waardes kunnen we dat vormgeven?

Barmhartigheid

Christenen willen leven vanuit de ‘goddelijke’ of ‘theologale’ deugden: geloof, hoop en liefde. Het driepaar vindt haar oorsprong in de eerste brief van Paulus aan de Korintiërs (1 Kor. 13,3). De theologale deugden zijn nauw verbonden met de zogenaamde werken van barmhartigheid. Ontleend aan Mattheüs 25 vormen ze een concretisering van de barmhartigheid waartoe alle gelovigen worden opgeroepen.

Mensen, of ze nu christen, anders-gelovig of ongelovig zijn, vinden liefde en zorg voor andere mensen belangrijk. Jezus Christus verlangt van ons Christenen barmhartigheid. “Barmhartigheid wil ik; géén offer!” zegt Hij in Mattheüs 9:13. In zijn aardse bediening is Hij altijd ‘rondgegaan, weldoende’, het evangelie verkondigend en erbarmen tonend voor de armen, gekwelden en bedroefden. In die traditie wil ik de centrale vraag stellen over algoritmes:

Zijn computersystemen en algoritmes werkelijk barmhartig?

Christelijke barmhartigheid is niet slechts iets globaals, geldig voor mensen of groepen in het algemeen. Barmhartigheid gaat over individuen. Over degene die aan de zelfkant van de samenleving staan. De mensen die geen mogelijkheden hebben zich te verweren tegen beslissingen gemaakt door algoritmen. Mensen die worden buitengesloten omdat ze niet in aanmerking komen voor de mogelijkheden die de maatschappij ons biedt. Een computersysteem dat iedereen al direct als potentiële fraudeur kenmerkt, is niet barmhartig. Een computersysteem dat mensen met een buitenlands klinkende naam daarom afwijst bij een sollicitatie, is niet barmhartig. Barmhartigheid moet op alle niveaus gepraktiseerd worden, ook door kunstmatige intelligentie.

Natuurlijk zijn vanuit het gebod van barmhartigheid christenhumanistische ethische principes af te leiden. En dat is ook goed om te doen. Maar vaak leidt dit tot consequentialistische afwegingen. Als een grote groep mensen voordeel bij een computersysteem heeft en een (kleine) minderheid, die er geen vruchten van plukt of er zelfs door benadeeld wordt, wordt het systeem toch als moreel aanvaardbaar gezien. Moeten we dat maar accepteren? Is dat barmhartig? Dat is volgens mij een van de kernvragen die we ons als christenen moeten stellen bij computersystemen.

Naastenliefde

Naastenliefde is een zeer belangrijk onderwerp in het Evangelie, volgens sommigen zelfs hét belangrijkste onderwerp. Het gebod van de naastenliefde strekt zich juist uit naar alle mensen, verder dan alleen de familie, kennissen of de ‘bubbel’ waarin je leeft. In Lucas 10 spreekt Jezus, in antwoord op de vraag “wie is mijn naaste?”, over de naaste als een persoon die op iemands weg wordt geplaatst. Dit hoeft dus niet per sé een bekende te zijn.

“Wanneer wij aan de armen de onontbeerlijke zaken geven, dan geven wij aan hen geen persoonlijke giften, maar dan geven wij aan hen wat hun toebehoort. Veel meer dan het beoefenen van een daad van naastenliefde, voltrekken wij een daad van gerechtigheid.”

Wanneer wij computersystemen ontwerpen en bouwen die het leven van mensen gaat beïnvloeden, moeten wij ons afvragen wie daar allemaal door wordt beïnvloed. En dat zijn niet alleen de mensen die direct bij het project zijn betrokken. Het systeem moet rechtvaardig zijn voor alle betrokkenen. Toen studenten mij vertelden over een systeem dat ambtenaren ging helpen bij het interviewen van hun cliënten – uitkeringsgerechtigden – vroeg ik: “Heb je ook met de cliënten gepraat om te kijken wat zij willen?” Dat hadden ze niet gedaan; gelukkig hebben ze dat hersteld.

Misschien lijken computersystemen ver weg te staan van het grote leed van de mensheid. Maar ook in kleine dingen kunnen we onze naastenliefde tonen. Door actief op te komen voor al degenen die benadeeld worden door algoritmes. En er vooral op toe te zien dat algoritmes juist voor deze mensen voordelen bieden. Zodat deze groepen erop vooruitgaan en deel blijven uitmaken van onze samenleving.

 Bron: https://www.technologyreview.com/2013/10/09/112852/data-discrimination-means-the-poor-may-experience-a-different-internet/

 Bron: https://www.romecall.org

 Bron: https://www.kuleuven.be/thomas/page/goddelijke-deugden-werken-van-barmhartigheid/

 Bron: https://igniswebmagazine.nl/kerk/barmhartigheid-wil-ik-geen-offer/

 Bron: https://www.churchofjesuschrist.org/study/manual/true-to-the-faith/charity?lang=nld

 Gregorius de Grote, Regula Pastoralis, 3, 21: PL 77, 87: “Nam cum qualibet necessaria indigentibus ministramus, sua illis reddimus, non nostra largimur; iustitiae potius debitum soluimus, quam misericordiae opera implemus”.

Dit artikel is eerder gepubliceerd op de Techthics-site.

Foto Public Domain door Rhoda Bear via Wikimedia Commons