ChatGPT: feit, fictie en de waarheid | ChatGPT: facts, fiction and truth

De persoonlijke blog van Reinoud Kaasschieter | The personal blog of Reinoud Kaasschieter

Post

Clasped handsDe laatste tijd verschijnen veel artikelen in kranten en nieuwsitems op televisie over ChatGPT. Omdat ChatGPT schijnbaar een antwoord op alle vragen weet, rijst de vraag of we dit soort technologie wel willen gebruiken. Of dat het onontkoombaar is. Dit artikel probeert na te gaan wat de ethische implicaties van ChatGPT zijn. En vooral wat het betekent voor ons begrip van feit, fictie en waarheid.

ChatGPT is gebaseerd op GTP-3, een zogenaamd Large Language Model. Deze modellen zijn in staat om op basis van natuurlijke taal, spreek- of schrijftaal, een antwoord te geven in dezelfde natuurlijke taal. Er zijn ook Large Language Models die op basis van een vraag of opdracht, geformuleerd in natuurlijke taal, een afbeelding kunnen genereren. Dit wordt Generatieve AI genoemd: AI die tekst, afbeeldingen of video’s genereert. Maar voor deze discussie gaan we uit van ChatGPT van OpenAI, Microsoft Bing, Replika, Google Bard en vele anderen. Met deze machines kan je een dialoog voeren en de kunstmatige intelligentie, door middel van vragen en antwoorden, tekstuele opdrachten laten uitvoeren. Je kunt de software vragen een tekst te generen over het onderwerp dat jezelf kiest.

Hoe werkt het dan? Op basis van gigantische hoeveelheden voor beeldteksten, gehaald van het internet, heeft de kunstmatige intelligentie geleerd hoe een taal in elkaar steekt. Welke woorden volgen op welke woorden. En dat lukt de machine nu heel goed. De zinnen die de software produceert zijn grammaticaal en syntactisch correct. Goed genoeg om als menselijke tekst door te gaan.

Waar is ChatGPT goed in?

Waar ChatGPT redelijk goed in is, is het maken van fictie. Verhaaltjes maken gaat het algoritme redelijk af, al is de verhaallijn soms brokkelig, zijn de karakters vlak en is de diepgang matig. Er worden nu zoveel fictie geschreven door ChatGPT dat een Amerikaans fantasy-tijdschrift wordt overspoeld met verhalen geschreven door de computer. “Het is een enorme hype. Niet-schrijvers zien het als een makkelijke manier om geld te verdienen, maar gaan wat anders doen wanneer ze bot vangen.” schrijft Martijn Lindeboom in een artikel in de Volkskrant.

Waar is ChatGPT slecht in?

Maar wat is dan het grote probleem rondom deze taalsoftware? Ten eerste presenteert ChatGPT alle antwoorden met zekerheid. Goede en foute antwoorden. De software twijfelt niet en kan de grootste onzin met grote zekerheid presenteren. ChatGPT kan zelf antwoorden verzinnen, hallucineren. De lezer van de antwoorden kan niet bepalen of ChatGPT de waarheid schrijft. Daarvoor moet de lezer het onderwerp waarover geschreven wordt kennen. Maar wat als de lezer die kennis niet heeft? Mensen hebben snel de neiging uitspraken van computers als waar te bestempelen. “Mensen hebben de neiging alles wat de bot zegt klakkeloos over te nemen.” schrijft het vakblad AG Connect.

Allerlei ethische bezwaren

Snel kwamen er allerlei ethische bezwaren op tegen ChatGPT en andere, soortgelijke algoritmen. Laat ik een korte opsomming geven van enkele van de problemen die experts op het gebeid van AI en ethiek zien:

  1. Scholieren en studenten hebben ChatGPT allang ontdekt als een gemakkelijke methode om een scriptie of verslag te schrijven. Leraren waren daar niet op voorbereid en proberen nu methoden te verzinnen om te bepalen wie of wat een tekst heeft geschreven. Daar worden nu tools voor gemaakt, maar misschien moeten we schrijfopdrachten anders gaan uitvoeren. Terug naar pen en papier of toch iets anders? Bij de opkomst van zoekmachines speelde dezelfde discussie, maar daar zijn we nu ook aan gewend geraakt.
  2. ChatGPT verbruikt veel elektriciteit en stoot daarmee indirect ook veel CO₂ uit. Dit is een algemeen probleem in de ICT en wordt met de verdere digitalisering steeds erger. Zoals een collega het ziet: “Als je energie wilt besparen, schrijf je eigen e-mails en laat het niet door een AI doen.” Luiheid leidt draagt bij aan de klimaatcrisis.
  3. Voor het voorkomen van ongewenste antwoorden worden aan ChatGPT filters toegevoegd. Bepaalde vragen die politiek gevoelig, discriminerend of pornografisch zijn, worden eruit gefilterd. Hiervoor worden in Kenia mensen ingehuurd voor $2 per uur. De ontwikkeling van sociale media en kunstmatige intelligentie gaat gepaard met uitbuiting. Het verwijderen van toxische content is en blijft (onderbetaald) mensenwerk.
  4. Large Langauge Models, waar ChatGPT er een van is, maken gebruik van enorme verzamelingen data. Deze data kunnen auteursrechtelijk zijn beschermd. Maar de tools hergebruiken deze data zonder daarvoor toestemming te hebben gevraagd. Vooral bij zogenaamde kunstwerken gemaakt door AI zijn kunstenaars oprecht bezorgd dat hun werk wordt geplagieerd.

Maar ik heb een groter bezwaar tegen het gebruik van ChatGPT: dat het de waarheid geweld aandoet. Wanneer je ChatGPT gebruikt om fictie te schrijven, een spookje of een gedicht, is er weinig aan de hand. De verhalen zijn dan wel middelmatig, maar dat kan onder omstandigheden voldoende zijn. Niet al het proza hoeft uitstekend te zijn.

Maar als het gaat om het beschrijven van feiten, is er wel een ethisch probleem. OpenAI, de bouwer van ChatGPT, waarschuwt al op hun website dat de antwoorden die de AI geeft wel eens foutief kunnen zijn. OpenAI geeft zelf de volgende waarschuwingen. ChatGPT

  • kan af en toe onjuiste informatie genereren;
  • kan af en toe schadelijke instructies of bevooroordeelde inhoud produceren;
  • beperkte kennis van de wereld en gebeurtenissen na 2021.

Maar ChatGPT geeft niet aan wanneer dit het geval is. Of wanneer er een kans is dat dit het geval is. Ook foute of slechte antwoorden worden gepresenteerd alsof er geen twijfel is. ChatGPT twijfelt nooit, en bluft door onwaarheden als waar te presenteren. En dat is ook niet verbazingwekkend wanneer je grote delen van het internet als informatiebron gebruikt. Vanwege de hoeveelheid desinformatie die al online is, die wordt ingevoerd in de trainingsmodellen voor grote taalmodellen, kunnen mensen die ze gebruiken ook onbedoeld onwaarheden verspreiden. Niet alles wat op het internet staat is waar, om het maar eens zachtjes uit te drukken.

“Wie wil weten waar de informatie die ChatGPT geeft vandaan komt, tastvolledig in het duister.” (Luc Steels, VUB)

Ook geeft ChatGPT geen bronvermeldingen. Klassieke zoekmachines linken naar de brondocumenten, het kennissysteem IBM Watson liet de bronnen ook zien. Maar het Deep Learning algoritme van ChatGPT kan helemaal niet de bronnen geven. Het husselt verschillende gegevens bij elkaar tot mooie volzinnen. De antwoorden zijn in zeker zin toevallig.

Daarnaast kunnen de antwoorden die ChatGPT geeft ook vooroordelen bevatten. Ze kunnen dan wel waar zijn, maar zijn dan sterk gekleurd. Waar de discussie rondom kunstmatige intelligentie de laatste jaren vooral draait op het vermijden van ‘bias’, blijkt er nu weer een AI-tool beschikbaar te zijn gekomen die weer eens vooroordelen verspreid. Dit wordt pas echt problematisch wanneer door ChatGPT gegeven teksten met vooroordelen weer op het internet worden geplaatst. En die dan weer door ChatGPT als broninformatie worden gebruikt. Kunstmatige Intelligentie kan vooroordelen versterken en ChatGPT is geen uitzondering daarop.

Nepnieuws & Co.

Als sinds mensenheugenis wordt er nepnieuws, roddels, onwaarheden en misleidende informatie gemaakt en verspreid. Deze “foute” informatie wordt verspreid uit eigen belang, politiek belang, macht maar ook uit domheid en onwetendheid. Niet altijd is kwade opzet in het spel, al kunnen de gevolgen wel kwaadaardig zijn. Het verspreiden van nepnieuws is vaal wel opzettelijk. Trollen die een alternatieve waarheid, of gewoon onwaarheden, verspreiden hebben politieke doelen. Sociale media bieden deze trollen een gemakkelijke methode hun berichten te verspreiden. Met verdergaande maatschappelijke gevolgen voor democratie en cohesie. “Democratie is geen product, maar een gemeenschappelijk proces. En dat wankelt door AI.” schrijft Maxim Februari in NRC.

“Generatieve AI creëert een wereld waarin iedereen desinformatie kan creëren en verspreiden. Zelfs als ze dat niet van plan zijn.” (Tim Gordon, Best Practice AI)

Daarin verandert Generatieve AI weinig. De menselijke eigenschap op feiten naar zijn hand te zetten, of om fictie als feit te presenteren, faciliteert Generatieve AI alleen maar. Maar is er dan niets veranderd?

Industrialisatie van onwaarheden

Wat Generatieve AI wel kan is op grote schaal bedrog faciliteren. Nu al zijn beveiligers bang dat pishing-mails door dergelijke tools zodanig geschreven kunnen worden, dat ze amper meer van oprechte berichten onderscheiden kunnen worden. Ook wordt het gemakkelijker nepnieuws te maken. ChatGPT en anderen zijn goed in het fantaseren, dus kunnen ze ook onwaarheden schrijven. Volgens mij zijn deze algoritmen er zelfs beter in dan het beschrijven van waarheden. Ook al gaan techbedrijven abonnementsgeld vragen voor dergelijke schrijfopdrachten, het schrijven van een artikel zonder controles wordt veel sneller en goedkoper dan een waarheidsgetrouw artikel. Journalisten en onderzoekers kosten geld. Het schrijven van een doorwrochte tekst kost tijd.

We zullen daarom meer te maken krijgen met teksten die onwaarheden bevatten. Uit hebzucht, macht of onwetendheid. Als we niet meer eenvoudig waarheden van onwaarheden kunnen onderscheiden, heeft dat maatschappelijke gevolgen. Wie kan ik nog vertrouwen? Welke waarheid is waar? Is alles dan relatief en bestaat de waarheid niet meer?

Het is ook belangrijk je te realiseren dat degene die geld en macht hebben de waarheid nu makkelijker naar hun hand kunnen zetten. Wie toegang heeft tot kunstmatige intelligente systemen, en daarbij ook nog controle over de distributiekanalen als sociale media, kan zijn versie van de waarheid, of zijn eigen waarheid, veel gemakkelijker verspreiden dan een ander met minder middelen. We zien dit nu al gebeuren bij Twitter. Ook dit is niet nieuw in de geschiedenis. Maar kunstmatige intelligentie maakt het wel een stuk gemakkelijker.

Wat is waarheid?

Wat is waarheid?”, vroeg Pontius Pilatus zich af. Ik geloof niet dat hij het filosofisch bedoelde, maar meer als een machtsvraag. Wat is waarheid wanneer ik, de machthebber over leven en dood, zelf kan bepalen wat waar is? Als Christenen zijn we op zoek naar de waarheid die Christus is als de weg, de waarheid en het leven. Maar deze waarheid is voor iedereen die het horen en zien wil. Niet alleen voor een exclusieve club uitverkorenen.

Niet lang geleden werd de cultuur gestempeld door het relativisme. Waarheid was ‘onkenbaar’. Misschien bestond het wel ergens ‘daarbuiten’, maar ieder idee daaromtrent was even waardevol. (Matt Hodges)

Als we de waarheid niet meer kunnen onderscheiden in de vloed van nepnieuws, gaan we ook als Christenen een uitdaging aan. Hoe kunnen we het Evangelie verspreiden wanneer de waarheid onkenbaar en dus een persoonlijke overtuiging is geworden? Hoe kunnen we een kerk bouwen wanneer geloofswaarheden alleen persoonlijk gekend worden?

Misschien gaat de hype rondom ChatGPT en anderen voorbij omdat we de waarde van menselijke waarheden hoger schatten. Dat een tekst die door een mens is geschreven waardevoller wordt gezien als een machine-gebaseerde tekst. Maar we kunnen binnenkort het verschil tussen beide niet meer onderkennen. Kwaadwillende mensen kunnen hun computerteksten altijd als menselijk laten doorgaan. We zullen sceptischer gaan staan op informatie we krijgen. Met het risico dat we ware teksten als onwaar gaan zien.

De vraag is hier niet of Christendom de geopenbaarde waarheid is. De vraag is, is of dit feit door anderen als waarheid wordt gezien. In een wereld waar onwaarheden alom zijn en we twijfelen aan alles wat ons wordt verteld. Alleen ware oprechtheid van de verteller kan deze twijfel doorbreken.

“Geloof”, aldus de Amerikaanse theoloog Stanley Hauerwas, “is niet bepaalde stellingen voor waar houden, hoewel het ook plaats heeft voor de houding en de passie van het vertrouwen. Geloof is niet een combinatie van die beide, maar eenvoudig loyaal zijn aan Jezus, als de stichter van Gods koninkrijk van vrede.”

Dit artikel is eerde gepubliceerd op de site van Techthics.nl en cvandaag.

Foto Creative Commons CC BY-SA 4.0 door Therealjimricks via Wikimedia.

Text in English:

Lately, many articles appear in newspapers and news items on television about ChatGPT. Because ChatGPT seemingly knows the answer to all questions, the question arises whether we want to use this kind of technology. Or that it is inescapable. This article tries to figure out what the ethical implications of ChatGPT are. And especially what it means for our understanding of facts, fiction and truth.

ChatGPT is based on GTP-3 or GTP-4, so-called Large Language Models. These models can answer in the same natural language based on natural language, spoken or written language. There are also Large Language Models that can generate an image based on a question or assignment formulated in natural language. This is called Generative AI: AI that generates text, images, or videos. But for this discussion, we assume ChatGPT from OpenAI, Microsoft Bing, Replika, Google Bard and many others. With these machines you can have a dialogue and let the artificial intelligence, through questions and answers, carry out textual assignments. You can ask the software to generate a text about the subject you choose.

So how does it work? Based on gigantic amounts of image texts, extracted from the internet, artificial intelligence has learned how a language works. Which words follow which words. And the machine is now doing that very well. The sentences produced by the software are grammatically and syntactically correct. Good enough to pass as human text.

What is ChatGPT good at?

What ChatGPT is pretty good at is making fiction. The algorithm is fairly good at making stories, although the storyline is sometimes friable, the characters are flat and the depth is mediocre. There is now so much fiction being written by ChatGPT that an American fantasy magazine is flooded with stories written by the computer. “It’s a huge hype. Non-writers see it as an easy way to make money, but they will do something different when they fail,” writes Martijn Lindeboom in an article in the Dutch daily paper de Volkskrant.

What is ChatGPT bad at?

But what is the big problem with this language software? First, ChatGPT presents all answers with certainty. Right and wrong answers. The software does not hesitate and can present the biggest nonsense with great certainty. ChatGPT can come up with answers on its own, it hallucinates. The reader of the answers cannot determine whether ChatGPT is writing the truth. For that, the reader needs to know the topic being written about. But what if the reader doesn’t have that knowledge? People tend to quickly label statements from computers as true. “People tend to take everything the bot says indiscriminately,” writes the Dutch IT journal AG Connect.

All kinds of ethical concerns

Soon, all kinds of ethical objections arose against ChatGPT and other, similar algorithms. Let me briefly list some of the problems that experts in the field of AI and ethics see:

  1. Pupils and students have long since discovered ChatGPT as an easy method to write a thesis or report. Teachers were not prepared for this and are now trying to come up with methods to determine who or what wrote a text. Tools are now being made for this, but perhaps we should carry out writing assignments differently. Back to pen and paper or something else? The same discussion played a role in the rise of search engines, but we have now become accustomed to it.
  2. ChatGPT consumes a lot of electricity and thus indirectly emits a lot of CO₂. This is a general problem in ICT and is getting worse with further digitization. As a colleague sees it: “If you want to save energy, write your own emails and don’t let an AI do it.” Laziness contributes to the climate crisis.
  3. To prevent unwanted answers, filters are added to ChatGPT. Certain questions that are politically sensitive, discriminatory or pornographic are filtered out. For this, people are hired in Kenya for $2 per hour. The development of social media and artificial intelligence is accompanied by exploitation. The removal of toxic content is and remains (underpaid) human work.
  4. Large Language Models, of which ChatGPT is one, use huge collections of data. This data may be protected by copyright. But the tools reuse this data without having asked permission. Especially with so-called works of art made by AI, artists are genuinely concerned that their work will be plagiarized.

But I have a bigger objection to using ChatGPT: it violates the truth. When you use ChatGPT to write fiction, a fairy tale or a poem, there’s little to worry about. The stories may be mediocre, but being average may be good enough. Not all prose has to be literature.

But when it comes to describing facts, there is an ethical problem. OpenAI, the builder of ChatGPT, already warns on their website that the answers that the AI gives can be wrong. OpenAI itself provides the following warnings. ChatGPT...

  • May occasionally generate incorrect information.
  • May occasionally produce harmful instructions or biased content.
  • Limited knowledge of world and events after 2021.

But ChatGPT does not indicate when this is the case. Or when there is a chance that this is the case. Wrong or bad answers are also presented as if there is no doubt. ChatGPT never hesitates, and bluffs by presenting falsehoods as true. And that is not surprising when you use large parts of the internet as a source of information. Because of the amount of misinformation already online, which is being fed into the training models for major language models, people who use them can also unintentionally spread falsehoods. Not everything on the internet is true, to say the least.

“If you want to know where the information ChatGPT gives comes from, you are completely in the dark.” (Luc Steels, VUB)

Also, ChatGPT does not provide any citations. Classic search engines link to the source documents, and the knowledge system IBM Watson also showed the sources. But ChatGPT’s Deep Learning algorithm can’t provide the sources at all. It huddles together different data into beautiful sentences. The answers are, in a sense, coincidental.

In addition, the answers that ChatGPT gives can also contain prejudices. They may be true, but they are strongly coloured. Where the discussion around artificial intelligence in recent years has mainly revolved around avoiding ‘bias’, it now appears that an AI tool has become available that once again spreads prejudices. This only becomes problematic when texts given by ChatGPT with prejudices are placed back on the internet. And which in turn are used by ChatGPT as source information. Artificial Intelligence can reinforce biases and ChatGPT is no exception.

Fake News & Co.

Since time immemorial, fake news, gossip, falsehoods and misleading information have been created and spread. This “false” information is spread out of self-interest, political interest, and power but also out of stupidity and ignorance. Malicious intent is not always involved, although the consequences can be malicious. Spreading fake news is deliberate. Trolls who spread an alternative truth, or simply falsehoods, have political goals. Social media provides these trolls with an easy method to spread their messages. With far-reaching social consequences for democracy and cohesion. “Democracy is not a product, but a common process. And that falters because of AI.” writes Maxim Februari in the newspaper NRC.

“Generative AI creates a world where anybody can be creating and spreading misinformation. Even if they do not intend to.” (Tim Gordon, Best Practice AI)

Generative AI doesn’t change much in that. The human trait of bending facts to his will, or to present fiction as fact, generative AI only facilitates. But has nothing changed?

Industrialization of falsehoods

What Generative AI can do is facilitate deception on a large scale. Security guards are already afraid that phishing e-mails can be written by such tools in such a way that they can hardly be distinguished from sincere messages. It will also be easier to create fake news. ChatGPT and others are good at fantasizing, so they can also write falsehoods. I think these algorithms are even better at it describing truths. Even though tech companies are going to charge a subscription fee for such writing assignments, writing an article without checks becomes much faster and cheaper than a truthful article. Journalists and researchers cost money. Writing a thorough text takes time.

We will therefore have to deal more with texts that contain falsehoods. Out of greed, power or ignorance. If we can no longer easily distinguish truths from falsehoods, this will have social consequences. Who else can I trust? What truth is true? Is everything relative and does the truth no longer exist?

Not long ago, culture was stamped by relativism. Truth was ‘unknowable’. Maybe it existed somewhere ‘out there’, but every idea about it was equally valuable. (Matt Hodges)

It is also important to realize that those who have money and power can now more easily control the truth. Those who have access to artificially intelligent systems, and also control over distribution channels such as social media, can spread their version of the truth, or their own truth, much more easily than another with fewer resources. We’re already seeing this happening on Twitter. This, too, is not new in history. But artificial intelligence does make it a lot easier.

What is truth?

If we can no longer discern the truth in the flood of fake news, we also face a challenge as humans. Perhaps the hype surrounding ChatGPT and others passes because we value human truths higher. That a text written by a human being becomes more valuable than a machine-based text. But we will soon no longer be able to recognize the difference between the two. Malicious people can always make their computer texts pass as human-made. We will become more sceptical of the information we get. At the risk of seeing true texts as untrue.

This is a shortened, English version of my article published on Techthics.nl and cvandaag.

Image Creative Commons CC BY-SA 4.0 by Therealjimricks via Wikimedia.