Ook leveranciers leggen in hun marketing de nadruk op automatisering van processen. Van Robotic Process Automation tot Automatic Decision-Making, al deze toepassingen zijn gericht op het uit handen nemen van werk van mensen. Kunstmatige Intelligentie is binnen die processen niets meer dan een tool waarmee je processen kunt automatiseren.
Door mechanisering en automatisering kunnen bedrijven meer en goedkoper produceren. Door automatisering kunnen bedrijven zelfs nieuwe producten en diensten aanbieden die voorheen onmogelijk waren. Maar automatisering heeft ook schaduwzijden. Leidt automatisering niet tot onpersoonlijke diensten, waar de menselijke maat en compassie ontbreekt? Moeten we niet, voordat we de ethiek van KI-tooling gaan bekijken, eerst de ethiek van de automatisering bestuderen?
Werk centraal
Veel ethische overwegingen rondom automatisering gaan over werk. Kost automatisering werkgelegenheid of levert het extra werk op? Wordt werk saaier of kunnen we ons richten op leuke dingen? Dit soort ethische vragen worden sinds het begin van de industriële revolutie gesteld. En ze zijn nog steeds belangrijk, maar zijn ze voldoende?
Door de komst van Kunstmatige Intelligentie worden er nieuwe ethische kwesties bij automatisering ontdekt. Rondom discriminatie, uitsluiting en vooroordelen blijken er steeds weer problemen op te duiken. Individuen en bevolkingsgroepen worden uitgesloten van of benadeeld door computersystemen. Zonder dat er empathie is voor hun persoonlijke verhaal. Dat maakt mensen machteloos tegen de beslissingen van het algoritme. Dat zijn serieuze problemen waar alle aandacht voor nodig is. Maar zijn dat nou typische problemen rondom Kunstmatige Intelligentie of speelt er meer?
Dom algoritme discrimineert ook
De recente affaires rondom toeslagen tonen aan dat er ethische problemen kunnen ontstaan omdat er geautomatiseerd wordt. En dat ook “domme” algoritmes bevolkingsgroepen kunnen discrimineren. Algoritmes nemen verreikende beslissingen die betrokkenen ernstig in de problemen helpen. En omdat dit automatisch gebeurt, weten we eigenlijk niet hoe dat precies uitpakt voor individuen en minderheidsgroepen. Wie een gesprek voert, kan luisteren naar tegenargumenten of bezwaren. Een automatisch systeem kan niet luisteren. Ergens in het ontwerpproces heeft iemand niet voldoende over de consequenties van de mogelijke beslissingen nagedacht. Of heeft deze consequenties genegeerd. Met verstrekkende gevolgen omdat automatische systemen snel heel veel beslissingen kunnen nemen.
Dat Kunstmatige Intelligentie onethische beslissingen kan nemen, is bekend. Maar ook domme algoritmes kunnen onethische beslissingen nemen. En wanneer deze beslissingen razendsnel grote groepen mensen kunnen treffen, is het kwaad snel geschied.
Daarom moeten we de ethische discussie rondom Kunstmatige Intelligentie uitbreiden naar een ethische discussie rondom het automatiseren van processen. We moeten dezelfde criteria en principes, waarop we Kunstmatige Intelligentie beoordelen, ook gaan gebruiken om automatiseringsprojecten te evalueren. Pas wanneer een geautomatiseerd systeem ethisch verantwoord is, kunnen we gaan nadenken over de ethische toepassing van een mogelijke component in dat systeem: Kunstmatige Intelligentie.
Deze tekst is eerder gepubliceerd op de blog van ag connect.
Tekening Public Domain via FreeSVG.org.