Heldere ethiek voor heldere beslissingen

De persoonlijke blog van Reinoud Kaasschieter | The personal blog of Reinoud Kaasschieter

Post

This text is only in Dutch.

Wanneer moeten we Artificiële Intelligentie in het onderwijs absoluut niet gebruiken?

GCC Classroom PixArtificiële intelligentie wordt steeds meer toegepast, ook in het onderwijs. Maar aan het gebruik ervan kleven ethische bezwaren, zeker wanneer AI wordt gebruikt voor beoordelingen en voorspellingen. We moeten daarom voorzichtig zijn om AI te gebruiken wanneer we niet weten hoe een beoordeling of voorspelling tot stand is gekomen. Want niet alleen discriminatie ligt op de loer.

Nieuw hulpmiddelen

Waarvoor wordt Artificiële Intelligentie gebruikt? Of waar gaat het voor gebruikt worden? De Nederlandse AI Coalitie (een samenwerkingsverband waar ook diverse onderwijsinstellingen bij zijn aangesloten) omschrijft in haar onderwijsmanifest de volgende kansen voor AI in het onderwijs:

  • Gepersonaliseerd leren: onderwijs beter laten aansluiten bij de leerling, met zowel betere uitkomsten als een beter leerproces.
  • Ondersteunen van de docent: voor zien van holistische en onderbouwde inzichten.
  • Vergroten van de effectiviteit van digitale leermiddelen.
  • Het verbeteren van de manier van toetsen van kennis.
  • Het verminderen van de werkdruk van docenten door toepassing AI ter ondersteuning van (administratieve) taken.

Op zich nuttige toepassingen. Een onderwijsveld dat geplaagd wordt door lerarentekort en dalende leerprestaties kan zeker hulp gebruiken. Door digitale hulpmiddelen en ook door Artificiële Intelligentie. Wat de effecten in de praktijk zullen zijn, valt nog te bezien. Mij gaat het hier niet om een toekomstverwachting uit te spreken over de effectiviteit van deze hulpmiddelen. Mij gaat het er hier om dat deze hulpmiddelen gelijke kansen bieden voor iedereen, ongeacht woonplaats, etniciteit, gender enz. Dat artificiële intelligente systemen niet stiekem discrimineren. En zo achterstanden in het onderwijs niet verkleinen maar vergroten.

Onderscheid maken

Ondanks het feit dat het onderwijs niet wil discrimineren, maken ze toch onderscheid. Een toets krijgt een cijfer, een student krijgt een studieadvies, een scholier komt in aanmerking voor een rugzakje. Al deze beslissingen hebben invloed op de verdere school- en studiecarrière van individuele personen. Het is dus belangrijk dat deze beslissingen zorgvuldig worden genomen. Op basis van transparante, uitlegbare criteria. Het onderwijsveld heeft altijd geprobeerd selectiecriteria zo duidelijk mogelijk te maken. Nu kan je altijd de discussie voeren of deze selectiecriteria op zich eerlijk zijn. De wederkerende discussie over numerus fixus is een voorbeeld hiervan. In hoeverre moeten schoolprestaties meetellen en in hoeverre het toeval? Maar welke criteria er worden gekozen, ze zijn in ieder geval duidelijk in de toepassing. Ook digitale hulpmiddelen maken onderscheid. Ze houden de prestaties van leerlingen bij en geven daar een oordeel over. Dat kan het tellen van het aantal goede antwoorden zijn, maar het kunnen ook ingewikkelde beslisbomen of statistische multi-factor analyses zijn. Hoe ingewikkelder het algoritme – de rekenregels – om prestaties te scoren, hoe moeilijker ze te begrijpen zijn. Maar ze moeten altijd te beoordelen zijn.

Voorspellingen doen

Met de komst van Artificiële Intelligentie, met name Machine Learning, is een nieuw type algoritmes beschikbaar gekomen. Op basis van de gegevens die we de algoritmes voeren bepaalt het algoritme zelf de patronen in deze gegevens. Onder water worden statistische analyses op de data gedaan, vooral worden er correlaties gelegd tussen de verschillende data-elementen. En deze correlaties vormen samen patronen. Patronen die heel veel factoren in ogenschouw nemen. Machine Learning is daar heel goed in. Is er een relatie tussen twee factoren, Machine Learning vindt ze. Is er een relatie tussen etniciteit en schooladvies, het algoritme vindt deze. Dat is op zich niet erg wanneer het bij beschrijvingen blijft. Omdat Machine Learning zo goed is in het vinden van verbanden, moeten de data waarin die verbanden worden gezocht, van uitstekende kwaliteit zijn. Biases, zoals verborgen vooroordelen, in de data zijn funest. Machine Learning kan deze fouten niet uit de data halen, integendeel, Machine Learning kan ze zelfs versterken. Maar Artificiële Intelligentie wil meer. AI wil voorspellingen doen op basis van deze beschrijvingen. Dus gaat het etniciteit gebruiken om een schooladvies te geven. Een school waar een leerling naar toe gaat kan een voorspeller zijn voor etniciteit. Het is nogal lastig die foute factoren uit de patronen te halen. Deze voorspellingen zijn altijd statistisch, ze geven geen zekerheid weer, maar een kans. Een kans dat een leerling een diploma kan halen. Een kans dat een student een studie op tijd kan afronden. En in individuele gevallen kan het anders uitpakken. De voorspellingen zijn nooit waterdicht. Maar een ouderwets schooladvies op basis van CITO-score kan toch ook fout zijn? Waarom is AI dan slechter? Waterdichte voorspellingen over een schoolcarrière van een individuele leerling kunnen toch nooit gemaakt worden? Dat is waar. Voorspellingen kunnen de plank misslaan. Misschien zijn voorspellingen gebaseerd op Artificiële intelligentie wel betrouwbaarder…

Opake algoritmes

De ethische hoofdvraag is niet of een Artificiële intelligentie slechtere of betere voorspellingen kan doen. Als een algoritme een slechter resultaat oplevert als een handmatige beoordeling, is dat natuurlijk niet goed. Ook ethisch gezien is dat niet goed, want je wilt juist dat leerlingen de kwalitatief goede adviezen en beoordelingen krijgen. Het belangrijkste probleem rondom Artificiële Intelligentie is dat we niet goed weten hoe de algoritmen tot hun beoordelingen komen. De werking van de selectiemechanismen is verborgen. Het is er niet uit te halen. We kunnen alleen maar vermoeden hoe een algoritme tot een beslissing gekomen is. Erger nog is wanneer blijkt dat de beslissing tot stand gekomen is op discriminerende redenen. Wanneer individuele leerlingen toegang tot onderwijs wordt ontzegd omdat ze een andere afkomst hebben, vrouw zijn of een vreemde achternaam hebben. Dan gaat het niet meer over oneerlijkheid, dan gaat het over het overtreden van mensenrechten. Deze ondoorzichtigheid van artificiële intelligente algoritmes vormt het hoofdprobleem voor de toepassing van AI. De onwetendheid over de onderliggende redenen van een beoordeling maakt het onmogelijk om te controleren of een algoritme op juiste gronden een beslissing heeft genomen. En juist die openheid over de redenen tot een beoordeling is essentieel. "Computer says No!" is onvoldoende. We willen en moeten weten waarom, zeker wanneer het om school en studie gaat.

Conclusie

Zonder transparantie over AI-algoritmen geen toepassing in het onderwijs. Ook al zijn de resultaten beter, als we niet weten hoe Artificiële intelligentie zijn beslissingen neemt, moeten we er ver van blijven. We moeten individuele leerlingen en studenten kunnen vertellen waarom ze geschikt of niet geschikt zijn, wel of niet een examen gehaald hebben, wel of niet in aanmerking komen voor een vervolgopleiding. Geeft een algoritme deze informatie niet, dan moet het gewoon in de kast blijven staan.

Dit artikel is eerder gepubliceerd in «Trends in Onderwijs – Van digitalisering in het onderwijs naar onderwijs voor de digitale wereld van morgen» van Capgemini Nederland.

Foto Creative Commons CC BY 2.0 DEED door Germanna Community College via Flickr