Door de redactie
Deze reeks artikelen kwam tot stand in samenwerking met Antoni Dol, Marleen Dolman, Sandy Butchers en Charles van Wettum.
De vorige weken bespraken we de discussie over generatieve AI en de invloed daarvan op de kunstsector op de Middag van het Fantastische Boek. Daarna inventariseerden we hoe AI invloed heeft op de maatschappij en bespraken we in het derde artikel de juridische kanten. In dit laatste artikel onderzoeken we hoe we met verantwoordelijkheid moeten omgaan bij door AI gemaakte fouten en betreden we de wereld van de filosofie als we ons afvragen of AI onze steun en toeverlaat is of dat we met AI onze zelfbeschikking uit handen geven.
Stelling: Wie maakt er een fout als een door AI gesuggereerde diagnose niet blijkt te kloppen?
Sigrid: ‘Laten we naar de ethiek teruggaan. Dan heb ik hier een mooie stelling: wie maakt er een fout als bijvoorbeeld een door AI gesuggereerde diagnose voor kanker niet blijkt te kloppen?’
Antoni: ‘Je vraagt dus eigenlijk: wie is er schuldig als het fout gaat.’
Charles: ‘Dezelfde vraag geldt voor mensen – laten we dat eerst eens verkennen. Ik las een heftige discussie op LinkedIn over de vraag of huisartsen fouten mogen maken en wie er aansprakelijk is als van de 170.000 diagnoses die je huisarts stelt in 10 jaar carrière er 10 fout zijn. Bijvoorbeeld een gemiste diagnose of een fout in de dosis van een geneesmiddel, maar dan van het soort waardoor soms mensen ernstig lijden. Ik vind dat je huisartsen de ruimte moet gunnen om af en toe een fout te maken, maar ik hoop tegelijkertijd van harte dat ze het niet bij mij doen.
Sigrid: ‘Maar dat kan ook niet anders toch? Mensen maken vroeger of later een fout.’
Karen: ‘Het is dubbelzinnig. Huisartsen mogen een fout maken, maar niet bij mij.’
Sigrid: ‘Ja, het is ook dubbelzinnig. Omdat je ervan uitgaat dat een AI geen fout kan maken. Dat proef ik hier een beetje uit. Of is dat niet zo?’
Charles: ‘Nee, AI’s zullen ook fouten gaan maken, foutloosheid is in onze wereld niet mogelijk, hoe graag moderne mensen dat ook willen. In de medische diagnoses zullen we af en toe wel iets missen, misschien een vlekje verkeerd interpreteren of een afbeeldingsfoutje. Techniek maakt natuurlijk ook fouten.’
Antoni: ‘Er zijn al ongelukken gebeurd met elektrische auto’s die autonoom rijden. Dus ja, wie is daar de schuldige? Dat is een moeilijke vraag. Is dat degene die de software heeft ontworpen waarmee die auto rijdt? Of is dat degene die de auto maakt? Of is dat de entiteit die voor die auto ging staan?’
Charles: ‘En soms zijn er situaties waarin er geen goede keuze mogelijk is: een plotseling overstekende kleuter aanrijden of uitwijken naar de andere rijbaan en een tegenligger raken? Zouden we voor AI dezelfde consideratie moeten hebben als voor mensen?’
Sandy: ‘Hebben we het over wie we de schuld geven? Of hebben we het over een bepaalde kwantificering van het aantal fouten dat AI mag maken voordat we ons er druk om maken? Als tien op de duizend mensen doodgaan, dan kan dat nog. Maar als het ineens honderd mensen zijn, dan is het wel ineens onverantwoord.’
Charles: ‘Daar heb je een heel serieus punt. Vanuit mijn rol bij het ziekenhuis weet ik dat het een steeds grotere rol gaat spelen: welke drempel hanteer je? Er komt ook een moment dat artsen (of AI’s?) voor het dilemma staan wie ze wel en geen medicatie geven. Gewoon omdat we bijvoorbeeld niet meer alle medicatie kunnen betalen. Dit gaat over het trolleyprobleem. Dat speelt dus ook in de gezondheidszorg (kiezen tussen twee kwaden) en komt nu op het bordje van AI te liggen. Het is een redelijk cynische benadering, maar het is wel realistisch, denk ik. Natuurlijk wil je nooit experimenteren op mensen, maar om iets te leren moet je.’
Karen: ‘Dan vraag ik mij af: waar blijft de ethiek?’
Charles: ‘Ethiek is natuurlijk in de medische wereld sowieso een probleem. Het zetten van een mes in een gezond mens. Wanneer te stoppen met behandelen en mensen (al dan niet een beetje geholpen) op een menselijke manier laten sterven. Keuzes maken heeft heel vaak een ethische kant en als we keuzes aan AI overlaten, besteden we dus ook de ethiek aan hen uit. Dat betekent volgens mij dat altijd mensen in laatste instantie een uitspraak moeten doen. Maar dan nog: als het voortraject grotendeels bij AI ligt, hebben die beslissers een grote informatieachterstand.’

Sigrid: ‘Maar goed, we hebben het hier natuurlijk specifiek over de generatieve AI. Dus die plaatjes en die tekstjes kan maken en vertalingen en weet ik het wat allemaal.
Hoe moeten we daar ethisch mee omgaan? Wat moeten we wel door de AI laten doen en wat niet? Het gaat de kant op van de ambacht of het gaat de kant op van de industrialisatie. Maar dat is niet ethisch, dat is economisch. Waar ligt de ethiek dan?’
Karen: ‘Nou ja, laten we eerlijk zijn als het gaat om de industrialisering, dat was ook een stuk ethische discussie, want mede dankzij het gevecht dat opstartende vakbonden hebben geleverd, heeft de werkende klasse weekend, heeft de werkende klasse in ieder geval in het Westen een redelijk fatsoenlijk minimumloon, hebben we een achturige werkweek. Want als je het aan de industrie had overgelaten in die periode, dan hadden we het niet over ethiek kunnen hebben als het om werk ging.’
Sigrid: ‘Dus jij denkt dat er voor de AI ook een soort vakbond moet worden opgericht?’
Karen: ‘Nee, want ik ben tegen, hè. Ik ben vol tegen.’
Sandy: ‘Ik denk dat het vooral gevaarlijk is als AI onze autonomie wegneemt. Dan denk ik met name aan het onderwijs. Ik zie leerlingen nu al: “Alexa, wat is het antwoord op mijn huiswerkopdracht?” Of: “Schrijf even een scriptie voor me”.’
Sigrid: ‘Dat is luiheid, dat heeft toch niks met autonomie te maken?’
Sandy: ‘Nou, luiheid leidt naar een afname van intelligentie, want als wij niet meer zelf kunnen nadenken, of zelf willen nadenken, uit luiheid, worden we steeds dommer. Dat bedoel ik met autonomie. Dat wij dadelijk niet meer voor onszelf kunnen nadenken, omdat het zo lekker makkelijk is om die AI dat voor ons te laten doen. Dat vind ik linke soep.’
Antoni: ‘Je kunt software voor je laten rekenen en de ingewikkelde dingen laten doen.’
Sandy: ‘Dit is wederom niet zwart-wit. Ik denk dat we moeten nadenken over waar we moeten stoppen de autonomie weg te geven. En daar is nu geen antwoord op. Daarom moeten we erover nadenken. Daarom moeten we erover blijven praten.’
Karen: ‘Een voorbeeld over mezelf. Ik heb dyscalculie. Ik gebruik spreadsheets, rekenmachines, alles. Maar aan de andere kant probeer ik mijn brein nog steeds te leren hoe ik dingen uit mijn hoofd moet uitrekenen. En negen van de tien keer lukt me dat. Op het moment dat ik met mijn dyscalculie alles, maar dan ook alles aan de computer en het rekenmachine zou overlaten, zou het mijn zwaar beperkte rekenbrein dus niet meer opvoeden. En dan geef ik autonomie af.’
Sigrid: ‘Ben je dan niet een van de weinigen die dat nog in stand wil houden? Want het is wel lekker makkelijk om alles uit te rekenen met een rekenmachine.’
Karen: ‘Klopt. Dat is waar ik me druk om maak. Dat is het punt dat Sandy maakt.’
Charles: ‘Ik betwijfel of wij zelfbeschikking kwijtraken als de AI toeneemt. Ik denk wel dat het karakter ervan anders wordt. Mijn auto, ik heb geen flauw idee hoe dat ding werkt, en dat is ook nergens voor nodig, want hij verplaatst me van de ene locatie naar de andere en daar ben ik heel blij mee. Ik ben ook heel blij dat er mensen zijn die hem kunnen repareren als hij niet precies meer doet wat ik zeg. En dat is het dan. Mijn zelfbeschikking is afgenomen wat betreft daar waar ik mijn voeten neerzet, maar ik heb zelfbeschikking teruggekregen in de vorm van een grotere reikwijdte. Dus wat er verandert, is het karakter, de inhoud van die zelfbeschikking.
Ik denk zeker dat AI een grote invloed gaat krijgen op de ontwikkeling van individuele mensen of onze maatschappij. Ik denk dat we niet kunnen voorzien welke kant het opgaat, en ik denk dat we er nul invloed op hebben. Cynisch, ja dat is het, maar de geschiedenis leert ons dat technologische ontwikkelingen erg de neiging hebben autonoom te zijn.’
De erfelijkheid van intelligentie
Sigrid: ‘Stel je voor, de AI neemt jouw denkkracht over (want je wordt lui en je brein kavelt af), dan heb je op een gegeven moment ook geen mensen meer die snappen hoe de AI werkt en niemand kan de AI meer onderhouden. Dan moet het toch ergens tot een stop komen?’
Charles: ‘Het menselijk brein gaat helemaal niet afkavelen. Ons brein wordt wel kleiner (al sinds 10.000 jaar!), maar wel steeds efficiënter.
Sigrid: ‘Nee, ik bedoel dat de menselijke autonomie afneemt.’
Charles: ‘Jazeker, ons leven gaat geweldig veranderen, dat ben ik met je eens. En net zo min als wij ons er een voorstelling van kunnen maken hoe onze voorouders driehonderd jaar geleden dachten, zo kunnen wij ons ook niet voorstellen hoe onze kleinkinderen over honderd jaar denken en zijn.’
Antoni: ‘Het wordt anders, ja, daar ben ik het mee eens.’
Charles: ‘En dat maakt sciencefiction ook zo leuk.’
Antoni: ‘Yes.’
Charles: ‘Het verklaart ook waarom zoveel sciencefiction in dystopie eindigt. Want je moet wel een gruwelijk optimist zijn wil je er een positieve toekomst in zien.’
Sandy: ‘Ik wil heel even gewoon, ook omdat het leuk is, de film Idiocracy aanhalen. Idiocracy gaat letterlijk over alle problemen die wij nu aan de kaart stellen.’
Charles: ‘Over de erfelijkheid van domheid, ja. Uit onderzoek is duidelijk dat er in IQ inderdaad erfelijke factoren zitten. Het blijft een te complexe samenhang om recht te blijven doen aan leerlingen uit sociaal zwakkere milieus, leden van minder geschoolde (sub)culturen of de algemene trend in de menselijke ontwikkeling.’
Sandy: ‘De film gaat over het dommer worden van de mens. Een man uit onze tijd doet mee aan een experiment. Die gaat in een soort stasis en hij wordt heel veel later wakker. Dan blijkt hij, als een van de domste mensen in onze tijd, een van de meest intelligente personen in de toekomst te zijn. Het gaat over hoe erg we zijn afgezakt. Je kunt er zoveel daarvan vandaag de dag terugzien, in onze huidige samenleving. Het is scary.’

Het gesprek gaat verder over hoe de vaak onnadenkenden of “domme” reacties op social media misschien niet direct door AI komen, maar wel in de hand gewerkt worden door de gemakzucht van de mens. Sandy en Karen zien daar al tekenen van in het huidige onderwijsstelsel en vrezen dat de mens steeds moeilijker AI onder controle zal kunnen houden, áls we dat al kunnen. Charles merkt op dat AI doet wat wij hem geleerd hebben: er ontstaan verkeerde resultaten als de trainingsdata niet volledig zijn of we vergeten de AI iets te leren wat voor ons vanzelfsprekend is.
In een artikel van Lab.nl wordt dit fenomeen “shortcut” genoemd. Bij medische toepassingen krijgt de AI data ingevoerd van bijvoorbeeld foto’s van heupbreuken. Die foto’s laten verschillende hoeken zien, maar er worden ook foto’s ingevoerd die op de spoedeisende hulp zijn gemaakt en waar vaak een deel van het bed wordt mee gefotografeerd. De AI ontdekt een patroon in de aanwezigheid van de bedrand en het percentage heupbreuken. Krijgt de AI een foto mét bedrand te verwerken, dan zal de diagnose van de AI een fractie vaker “heupbreuk” zijn, ook al is er geen sprake van een breuk. Dit is de beruchte shortcut.
Om de AI bij te sturen en ethischer te maken, zullen we de AI ook moeten trainen op die aspecten. De angst van Karen dat technologie leidt tot de devaluatie van de menselijke intelligentie, lijkt hiermee te worden tegengesproken: als je een AI ethischer wil maken en shortcuts wil vermijden, heb je juist meer intelligente mensen nodig.
Technologie is niet het einde van het menselijke denkproces, meent Sandy. De ontwikkelingen in AI geven Sandy daarin gelijk. In een artikel op ChatGTP Nederland wordt hoog opgegeven over de “Human-AI Collaboration”. De nieuwste fase in de ontwikkeling is de opkomst van AI-gidsen, aldus het artikel. Deze vorm van AI staat naast de mens en assisteert bij “complexe taken en besluitvormingsprocessen” in de gezondheidszorg, onderwijs of onderzoek. Daar waar het artikel grote voordelen ziet op het gebied van innovatie en vooruitgang, zien sommige leden van het panel juist het tegenovergestelde. Zij vrezen dat de mensheid luier en dus dommer wordt.
Sandy: ‘Ik denk dat het enorm belangrijk is om op voorlichting en educatie in te zetten. Hoe werkt AI, wat doet het en wat niet en hoe ga je er bewust mee om. Als dat bewustzijn groeit en met de generaties mee-evolueert, dan komen we er echt wel. We komen echt wel ergens. Kennis en wijsheid is zo belangrijk in de vormende fase waarin we nu zitten. Dat is voor mij de kern. En dat is ook de reden waarom ik met dit soort gesprekken meedoe. Ik vind dat megabelangrijk.’
Perceptie van de werkelijkheid
Sigrid: ‘Ik las ooit een verhaaltje van Frank Roger. Het staat op Edge Zero. Leesherinneringen – nooit vervagend heet het. De kern is: een app in de toekomst plant rechtstreeks herinneringen aan een gelezen boek in je hoofd. Je kunt dus Honderd jaar eenzaamheid zo downloaden in je hoofd. Nee, de leesherinnering kun je downloaden. Lekker makkelijk. Je herinnert je dus de inhoud, hoe je je voelde op het moment dat je het las, enzovoorts. Op een gegeven moment is er in dat verhaaltje een leesherinnering aan een boek dat niet terug te leiden is naar een echt, fysiek boek of naar een fysiek persoon.
De mensen die de herinneringen aan dat “nepverhaal” hadden gedownload vonden zelf dat er totaal geen probleem was.
Ik zie hier wel parallellen met onze discussie. Toen ik Franks verhaal voor het eerst las, dacht ik: waar gaat het over? Maar misschien is dit dus precies waar de gemakzucht naartoe gaat. Als je niet meer het onderscheid kunt maken tussen wat echt is en wat AI gegenereerd is. Maken jullie je daar ook zorgen over?’
Karen: ‘Maar dan heb je het dus over het Mandela-effect, of niet, Sigrid?’
Sigrid: ‘Dat weet ik niet.’
“Het mandela-effect is een fenomeen waarbij veel mensen geloven dat iets werkelijk is gebeurd, terwijl het in werkelijkheid nooit is gebeurd”, aldus Wikipedia. Ook wel “misinformation effect” genoemd. Het effect is vernoemd naar Nelson Mandela, president van Zuid-Afrika, die volgens de herinnering van veel mensen al in de jaren 80 in de gevangenis is overleden en dus helemaal geen president heeft kunnen worden. Waarschijnlijker is dat mensen zich fragmenten herinneren en verschillende berichtgevingen van andere gestorven gevangenen hebben gecombineerd met dit beeld. Steve Biko, ook een anti-apartheidsstrijder, stierf namelijk wél in de gevangenis. In 1977.
Sigrid: ‘Ik geloof niet dat het verhaal van Frank Roger daarover gaat. Het gaat meer om het feit dat mensen zich niet meer druk maken over of iets echt is of niet. Of iets terug te leiden is tot een fysiek fenomeen of niet. Tot iets in de werkelijkheid.’
Charles: ‘Ik vind het een heel leuke vraagstelling. Ik vraag dan meteen: wat is dan echt? Zijn alleen de dingen die fysiek terug te voeren echt? Is de liefde van mijn vrouw voor mij echt?’
Sigrid: ‘Dat is een fundamentele vraag. Wat vinden wij “echt”?’
Sandy: ‘Ik las laatst een mega-interessant artikel. De stelling was Perception is reality. Als genoeg mensen geloven dat de Tweede Wereldoorlog eindigde in 1970 dan gaan we dat vanzelf geloven. De perceptie wordt werkelijkheid. Die werkelijkheid is gebaseerd op perceptie. Waar trek je die grenzen?’
Charles: ‘Even het stapje naar de AI. De fragmentatie van onze wereld is in feite wat je beschrijft: de fragmentatie van het wereldbeeld en de fragmentatie van de maatschappij. Het niet meer in staat zijn om gezamenlijke waarden en normen te vinden. Om een bodem te vinden, waar iedereen het over eens is, zodat je er samen iets kunt opbouwen. Dat is wel de wereld waarin AI aan het ontstaan is en AI heeft daar volgens mij een versterkende invloed op.’
Sigrid: ‘Dat denk ik dus ook. Ik weet niet of ik daar heel blij van word.’
Karen: ‘Daarom ben ik dus heel voorzichtig met en kritisch op AI. Precies om die reden.’
Charles: ‘Ik denk tegelijk dat je er niks tegen kunt doen. Onze maatschappij is gewoon voor heel veel mensen te ingewikkeld geworden. Het overzicht is weg. Veel mensen hebben de neiging om zich terug te trekken in hun eigen bubbeltje, in hun kleine omgeving waar ze van meningen en percepties wel zeker kunnen zijn. Of in ieder geval: dat denken.’
Sigrid: ‘We hebben natuurlijk ook grote problemen op dit moment. De opwarming van de aarde. Het is niet gering. Daar kun je alleen maar als één mensheid iets tegen doen. En aangezien de helft achter allemaal idioten aan loopt en het grote geld zoekt en de andere helft in hun bubbel gaat zitten… Met wie moet je dan de wereld redden?
Ik denk wel dat AI daar inderdaad een versterkende factor in is. Uit deze discussie wordt duidelijk dat we geen antwoorden hebben, dat we wel bezorgd zijn. Hoe zal de maatschappij veranderen? Dat kunnen we niet voorspellen.’
Karen: ‘Het gekke is: toen we in de jaren tachtig drijfgassen van koelkasten en deodorantbussen de wereld uit moesten helpen, konden we wel schakelen.’
Isabelle: ‘Het gat in de ozonlaag was ook een heel concreet ding.’
Karen: ‘Maar wat is er dan niet concreet aan wat we nu zien in het wereldklimaat?’
Isabelle: ‘Blijkbaar hebben sommigen toch nog altijd overtuiging nodig.’
Sigrid: ‘Het is te groot. Het klimaat is een complex systeem. Als je hier wat aan gaat draaien, dan weet je niet goed wat er elders kan gebeuren. Het enige wat we nu weten: de CO2 moet gereduceerd worden. Als je boven een bepaalde drempel komt dan is dat een “point of no return”. Zo heb ik het begrepen. Nou ja, ik dwaal af. We moeten het wel over AI blijven houden.’
Karen: ‘Maar dat gaat indirect ook allemaal over AI. We zijn aan het zoeken naar de invloed die AI in ons leven heeft, hoe wij AI beïnvloeden en hoe dat een impact heeft op de wereldproblematiek. En daar valt klimaat ook onder.
En we moeten dan ook weten waar we AI willen inzetten. Zolang we niet weten hoe we AI op de juiste manier kunnen inzetten, zullen deze vragen blijven bestaan. Want die vragen gaat AI ons ook stellen op gegeven moment en als we daar geen antwoord op weten, wat dan?’
Sandy: ‘Zijn we al zover dat AI vragen stelt? AI verwerkt data. Als AI vragen kan gaan stellen, dan heb je een heel ander gesprek. Dan zou AI zichzelf de vraag kunnen stellen: is wat ik doe wel ethisch verantwoord?’
Charles: ‘Wat je nu zegt is volgens mij een van de opdrachten waar we wel iets mee kunnen. Als in onze toekomst die geautomatiseerde systemen een grote rol gaan spelen, hoe kunnen we zorgen dat ook ethiek en rechtvaardigheid en dat soort beginselen in het systeem blijven? En dat het niet een uitsluitend technocratische afweging wordt?’
Antoni: ‘Er is een verschil tussen de AI die we nu hebben en de AI die we in de toekomst zouden kunnen krijgen. Wat we nu hebben is specialistische AI, om plaatjes te maken of om teksten te genereren. Maar het streven is natuurlijk naar een generieke AI. En daar heb ik ook wel mijn vraagtekens bij. Of je dat moet willen. Voor mij moet AI een tool blijven en zeker niet zelfbewust worden of zo.’
Karen: ‘AI hoeft maar Jean Paul Sartre te vinden (“Ik denk, dus ik besta”) en dan is het hek van de dam…’
Conclusie
We zijn aan het einde van de discussie gekomen en kunnen concluderen dat we veel haken en ogen zien aan de opmars van AI, maar dat er ook ongekende mogelijkheden zijn. Enigszins vrede hebben we met het idee dat AI als tool gebruikt wordt en het leven efficiënter en makkelijker maakt. Kanttekeningen plaatsen we bij het commerciële gebruik van generatieve AI en of het wel zo netjes is om het handwerk van kunstenaars te vervangen met machinale processen. Toch vermoeden we dat de mens voldoende veerkracht, inventiviteit en creativiteit bezit om mét AI nieuwe kunstvormen te ontdekken.
Met de opkomst van AI komen vele aspecten van de samenleving onder een vergrootglas te liggen, zoals juridische zaken als ‘wat is een maker’ en ‘is copyright nog wel van toepassing’, maar ook hoe ethiek in een AI moet worden toegepast en wat we eigenlijk ethisch vinden. Het proces zal ons veel leren over onszelf.
Dikke vraagtekens zetten we bij de steeds intensievere samenwerking tussen AI en mens. We vinden dat er zorgvuldig moet worden omgesprongen met het gebruik van dat soort AI en dat AI niet het denken van de mens moet overnemen. Oplossingen zien we in een goede voorlichting van (jong) publiek en in open gesprekken. Wat ons het meeste zorgen baart is de snelheid waarmee AI zich ontwikkelt en dat we eigenlijk al te laat zijn met een goede regulering.
Wil je naar aanleiding van deze vier artikelen meedenken en meediscussiëren over de AI in de kunsten? Graag! Stuur je bijdrage in de vorm van een artikel, verhaal of illustratie (vermeld erbij of je gebruik gemaakt hebt van AI) naar redactie@fantasize.nl of rechtstreeks naar eindredacteur Sigrid: sigrid@fantasize.nl.

Bronnen:
* Artikel op Zorgvisie – huisartsen maken fouten
* Artikel op Huisarts & Wetenschap – fouten maken moet mogen
* Wikipedia – Trolleyprobleem
* Wetenschap vandaag – waarom onze hersenen krimpen
* TU Delft – AI in de gezondheidszorg
* IMDB – Idiocracy
* New Scientist – Intelligentie is erfelijk
* Wikipedia – Domheid
* Wikipedia – Flynneffect
* Wikipedia – Dysgenetica
* Lab NL – Hybride intelligentie
* Scientias – Worden we steeds dommer?
* Client van de rekening – De samenleving is te complex
* GGZ College – Moeilijke kinderen of moeilijke maatschappij
* Sociologie Magazine – De cultuur achter complottheorieën
* Technopedia – Het ethische AI-dilemma
* Wikipedia – Technological singularity
* Leesherinneringen – nooit vervagend van Frank Roger, te lezen op Edge Zero
* We land good – Perception is reality
© 2020 – 2025 Fantasize, Antoni Dol, Marleen Dolman, Sandy Butchers & Charles van Wettum
