Niet zo slimme AI is best wel nuttig | Not so smart AI can be quite useful

Sketchy figurine saying: I'm smart, I thinkIn oktober 2021 werd de voltooiing van de onvoltooide symfonie nr.10 van Beethoven uitgevoerd. Deze keer was het muziekstuk niet afgemaakt door een componist, maar door een AI-programma. Ondanks het feit dat de makers er hoog van opgaven dat computers eindelijk creatief zijn, bleek het resultaat nogal mager. «Bloedeloos, saai, majesteitsschennis» recenseerde Trouw.

Steeds weer wordt verteld hoe computers en intelligente machines de wereld zullen gaan overnemen, de mensheid gaan overtroeven en misschien zelfs kwaadaardig kunnen worden. Of dat computers de grote problemen van de wereld, zoals klimaatverandering en epidemieën, gaan oplossen. Maar ook verschijnen er steeds weer artikelen waarin wordt beschreven hoe artificiële intelligentie (AI) niet levert wat ze belooft.

De vraag, die daarom we op dit moment moeten stellen, is: Is Artificiële Intelligentie wel zo intelligent als we verwachten? En mijn vervolgvraag is dan: Is dit erg?

Wat verwachten we eigenlijk van intelligente machines? Dat ze creatief zijn, onverwachte dingen doen, ons verrassen met iets nieuws, de krenten uit de pap pikken? Maar wie weet hoe bijvoorbeeld Machine Learningeen leeg systeem laat leren op grote hoeveelheden data, zal dat algoritme uit die grote hoeveelheden data het gemiddelde halen.

“Een van de fouten die wij hebben gemaakt als nerds en computerwetenschappers, is dat we het kunstmatige intelligentie hebben genoemd.” (Jim Stolze, schrijver en ondernemer)

Want helaas of niet, het gemiddelde komt meestal in onze maatschappij nou eenmaal het meeste voor. Het uitzonderlijke verdrinkt in de zee van data. Waar ons brein nog enigszins in staat is het uitzonderlijke, de afwijking, te zien zijn veel machines daar amper toe in staat. Machines weten eigenlijk niet wat ze met uitzonderingen aan moeten, tenzij ze expliciet verteld is wat met uitzonderingen te doen.

A” in AI als in “automatisering”?

Misschien moeten we minder nadruk op het intelligente in Artificiële intelligentie leggen. Als het doel van AI om de menselijke intelligentie goed na te bootsen of te overtreffen nu niet haalbaar is, moeten we dan niet anders over AI gaan denken? En dat gebeurt al. Succesvolle AI-implementaties zien AI niet zo zeer als een superslimme tool, maar vooral als een tool om processen mee te automatiseren. Processen die bijvoorbeeld erg arbeidsintensief zijn, zoals bij de toepassing van Robotic Process Automation (RPA). Of zelfs processen die niet eens door mensen gedaan kunnen worden, zoals bij high frequency trading op de beurs.

Als we AI vooral zien als een methode om te automatiseren, kunnen we AI op een meer realistische wijze gebruiken. Om meer dingen sneller en goedkoper te doen. En misschien, maar niet noodzakelijkerwijs, beter dan mensen. Want zoals ik al beschreef is AI vooral goed in het verwerken van veel voorkomende gevallen. Niet bij het doen van uitzonderlijke dingen. Juist automatisering richt zich op deze bulk van veel voorkomende gevallen. Hier is het meeste rendement te halen. Uitzonderingen hoeven niet geautomatiseerd te worden, die kunnen handmatig blijven worden afgehandeld. Op deze wijze hebben heel veel organisaties hun processen ingericht, nog voordat Artificiële intelligentie en Machine Learning toegepast konden worden.

In een artikel uit 2017 stelt Tom Rikert dat alleen bij automatisering je een Return-On-Investment (ROI) krijgt die je AI-project pas echt rendabel maakt. AI-projecten zijn complex en duur, dus ze moeten wel voldoende meerwaarde opleveren. En dat kan alleen wanneer AI veel werk uit handen neemt.

"Je kunt niet zomaar wat AI op een probleem strooien en een goed resultaat verwachten. De misvatting is vaak dat je dat kunt, maar ieder goed model is gebaseerd op kennis van het domein en waartoe de technologie in staat is." (Simen Norrheim Larsen, application consultant bij Capgemini)

«This level of near total automation requires a ton of trust, hence the value of domain experts to set it up and AI learning to capture data, patterns, and insights at scale,» stelt Rickert. Dus naast een uitstekende datakwaliteit hebben we ook veel expertise nodig om deze data te doorgronden en efficiënt – en bovenal ethisch – in te zetten. Dat gaat de AI-software niet vanzelf voor je doen.

Automatisering kan ook ethische problemen geven

Het is juist die ethische – of onethische – toepassing van Artificiële intelligentie die problemen veroorzaakt die in de krant komen: AI discrimineert bevolkingsgroepen, benadeelt individuen en maakt ernstige beoordelingsfouten. Er zijn toepassingen van AI die ethisch onverantwoord zijn maar er zijn toepassingen die ethisch verantwoord zijn. Vaak ligt de oorzaak niet zozeer in de AI-software zelf, maar in de data die gebruikt wordt om de AI te leren. Als daar vooroordelen in vastgelegd zijn, impliciet of expliciet, zal de AI-software die genadeloos oppakken. Daarom zien we bij Capgemini de ethiek van AI als onderdeel van de data-ethiek.

“Ethiek programmeren zal een heel lastige dobber worden omdat er vooralsnog geen perfect moreel algoritme bestaat.” (Max Herold, organisatie-adviseur bij de Rijksoverheid)

En omdat bij automatisering we graag algoritmes autonoom willen laten werken, moeten we extra alert zijn op fouten. Dan maakt het eigenlijk weinig uit of het algoritme intelligent, lerend of “dom” is. Fout is fout. Het verschil is wel dat bij zogenaamde "domme" of geprogrammeerde algoritmes het gemakkelijker is de bron van de fout op te sporen dan bij AI-modellen. Want bij ingewikkelde Machine Learningblack box.

Heb ik echt lerende systemen nodig?

Omdat Artificiële Intelligentie ondoorzichtig kan zijn, is het moeilijk om uit te kunnen leggen hoe en waarom de AI-model een beslissing heeft genomen. Voordat we Artificiële Intelligentie gaan toepassen, moeten we eerst nagaan of het gebruik van lerende systemen echt noodzakelijk in de situatie waar we het willen gebruiken. Kunnen we zelf de complexiteit van het probleem niet doorgronden en laten we dat dan aan AI over? Kunnen we de situatie vereenvoudigen om zo simpeler oplossingen te kunnen maken? Begrijpen we echt wezenlijk waar de situatie over gaat, of hebben we eenvoudigweg onvoldoende kennis en brengt meer onderzoek wel dat inzicht? Misschien is bescheidenheid hier op zijn plaats. Hoe simpeler, hoe beter, hoe sneller resultaat.

Artificiële Intelligentie kan helpen processen beter te automatiseren. Wanneer zorgvuldig en ethisch toegepast, zijn er grote voordelen te behalen. Pas AI bewust toe, weet dat je toepast en gebruik het niet alleen omdat het hip en modern is en misschien op den duur iets gaat opleveren. Ook financiële voordelen omdat het vooral loont AI voor de bulkverwerking toe te passen. De toepassing van AI binnen automatiseringstrajecten is misschien niet de erg baanbrekend, maar wel realistisch. En dat realisme is broodnodig om Artificiële Intelligentie nuttig, rendabel en ethisch in te zetten.

Dit artikel is eerde gepubliceerd op de Capgemini website.

Tekening Creative Commons CC BY-SA 4.0 door Joooojoooo-ooo via Wikimedia.

Text in English:

In October 2021, the completion of Beethoven’s unfinished Symphony No.10 was performed. This time the piece of music was not finished by a composer, but by an AI program. Even though the makers were high on the fact that computers are finally creative, the result turned out to be rather meagre. «Bloodless, boring, desecration of majesty» reviewed the Dutch daily newspaper Trouw.

Time and again it is told how computers and intelligent machines will take over the world, trump humanity and perhaps even become evil. Or that computers will solve the world’s big problems, such as climate change and epidemics. But there are also multiple articles that describe how artificial intelligence (AI) does not deliver what it promises.

The question, which we, therefore, have to ask at this time, is: Is Artificial Intelligence as intelligent as we expect? And my follow-up question is: Is this bad?

What do we expect from intelligent machines? That they are creative, do unexpected things, surprise us with something new, cherry-picking the most prolific insights? But who knows how, for example, Machine Learning works, knows that this is not possible. If you let an empty system learn on large amounts of data, that algorithm will get the average out of those large amounts of data.

“One of the mistakes we’ve made as nerds and computer scientists is that we’ve called it artificial intelligence.” (Jim Stolze, writer and entrepreneur)

Because unfortunately or not, the average is usually the most common in our society. The exceptional is drowning in the sea of data. Where our brain is still somewhat capable of seeing the exceptional, the deviation, many machines are barely able to do that. Machines don’t know what to do with exceptions unless they’ve been explicitly told what to do with exceptions.

A” in AI as in “automation”?

Perhaps we should put less emphasis on the intelligence in Artificial Intelligence. If AI’s goal of properly mimicking or surpassing human intelligence isn’t achievable now, shouldn’t we start thinking about AI differently? And that’s already happening. Successful AI implementations do not see AI so much as a super-smart tool, but mainly as a tool to automate processes. For example, very labour-intensive processes, such as the application of Robotic Process Automation (RPA). Or even processes that cannot even be done by people, such as in high-frequency trading on the stock exchange.

If we see AI primarily as a method of automation, we can use AI more realistically. To do more things faster and cheaper. And maybe, but not necessarily, better than humans. Because as I already described, AI is especially good at processing common cases. Not when doing exceptional things. Automation focuses on this bulk of common cases. This is where the most return can be achieved. Exceptions do not need to be automated; they can continue to be handled manually. In this way, many organizations have set up their processes, even before Artificial Intelligence and Machine Learning could be applied.

In an article from 2017, Tom Rikert states that only with automation do you get a Return-On-Investment (ROI) that makes your AI project profitable. AI projects are complex and expensive, so they must provide sufficient added value. And that is only possible when AI takes a lot of work off your hands.

“You can’t simply sprinkle some AI on top of a problem to expect a good outcome. The misconception is often that you can, but any good modelling is built on the foundations of knowing the domain and what the technology is capable of.” (Simen Norrheim Larsen, application consultant at Capgemini)

«This level of near-total automation requires a ton of trust, hence the value of domain experts to set it up and AI learning to capture data, patterns, and insights at scale,» says Rickert. So in addition to excellent data quality, we also need a lot of expertise to understand this data and to use it efficiently, and above all ethically. The AI software is not going to do that for you by itself.

Automation can also cause ethical problems

It is precisely this ethical – or unethical – application of Artificial Intelligence that causes problems that appear in the newspaper: AI discriminates against populations, and disadvantaged individuals and makes serious errors of judgment. There are ethically irresponsible applications, but there are applications that are ethical. Often the cause lies not so much in the AI software itself, but in the data that is used to learn the AI. If there are biases in it, implicitly or explicitly, the AI software will pick them up mercilessly. That’s why at Capgemini we see the ethics of AI as part of data ethics.

“Ethics programming is going to be a very difficult task because there is no perfect moral algorithm yet.” (Max Herold, consultant at the Dutch Government)

And because in automation we want algorithms to work autonomously, we have to be extra alert to errors. Then it makes little difference whether the algorithm is intelligent, learning or “stupid”. Wrong is wrong. The difference is that with so-called “dumb” or programmed algorithms it is easier to trace the source of the error than with AI models. Because with complicated Machine Learning systems, it is hard to find out where a wrong turn has been taken within the model. The models are not the debugging, they are opaque: a black box.

Do I need learning systems?

Because Artificial Intelligence can be opaque, it is difficult to explain how and why the AI model decided. Before we start applying Artificial Intelligence, we must first check whether the use of learning systems is necessary for the situation where we want to use it. Can’t we fathom the complexity of the problem ourselves and leave that to AI? Can we simplify the situation to make simpler solutions? Do we sincerely understand what the situation is about, or do we simply have insufficient knowledge and does more research bring that insight? Perhaps modesty is in order here. The simpler, the better, the faster results.

Artificial Intelligence can help automate processes better. When applied carefully and ethically, there are great benefits to be gained. Apply AI consciously, know that you are applying and do not use it just because it is hip and modern and may yield something in the long run. Also, financial benefits because it is mainly worthwhile to apply AI for bulk processing. The application of AI within automation processes may not be the most groundbreaking, but it is realistic. And that realism is desperately needed to use Artificial Intelligence usefully, profitably and ethically.

The Dutch version of this article has been published on the Capgemini website.

Drawing Creative Commons CC BY-SA 4.0 by Joooojoooo-ooo via Wikimedia.