Merel Noorman

Vragen bij in plaats van aan ChatGPT: “We kunnen nu fundamentele keuzes maken”

Interview 4 min. Corine Schouten

Generatieve Artificiële Intelligentie, zoals het pas gelanceerde ChatGPT en zijn opvolgers, lijkt een aardverschuiving teweeg te brengen in onze samenleving. Gaat deze nieuwe technologie ons leven veranderen? Wat moeten we er zelf mee? Universitair docent AI, robotica en Science and Technology Studies Merel Noorman is gespecialiseerd in het stellen van ethische vragen die helpen technologie op een goede manier in te zetten. “Belangrijk is om niet te speculeren, maar om te kijken wat er gebeurt in de praktijk,” is haar devies. Zelf staat ze met haar voeten stevig in zowel de praktijk als de theorie.

Kunstmatige of artificiële intelligentie (AI) zit al in heel veel technologie, vaak zonder dat we er erg in hebben. Maar met ChatGPT lijkt AI opeens dichtbij te komen, zeker als je student of docent bent, of op een andere manier teksten maakt. Zelfs dr. Merel Noorman, die al vele jaren met AI bezig is in haar onderzoek en onderwijs, moest zich snel bijscholen om haar eigen studenten voor te blijven in de tentaminering. Is ChatGPT een hype, of verandert er iets fundamenteels? “Het lijkt erop dat hier de uncanny valley theorie van toepassing is,” denkt Noorman.  “Zolang AI menselijk lijkt is het schattig. Totdat het eng wordt.” 

Ethiek als leidraad

Juist wanneer het eng wordt, kan Noorman haar expertise laten gelden. Ze stelt ethische vragen die helpen antwoorden te vinden als bestaande normen en waarden niet meer voldoen. Vragen over goed en kwaad dus. “Ethiek kan helpen een nieuwe realiteit te richten,” legt ze uit. “Om na te denken over ethische vragen kunnen we putten uit fundamentele mensenrechten en basiswaarden, zoals menselijke waardigheid, privacy, individuele autonomie, vrije omgang met andere mensen. Die hebben bij sommige technologie nieuwe interpretaties nodig.”

Merel Noorman

In veel landen moet er een bestuurder achter het stuur zitten die je verantwoordelijk kunt stellen. Maar kan de technologie ook aansprakelijk zijn?

Ze geeft het voorbeeld van de zelfrijdende auto waarin complexe AI is verwerkt: die knoopt verschillende systemen aan elkaar. Wie is er verantwoordelijk als er een ongeluk gebeurt? “In veel landen moet er een bestuurder achter het stuur zitten die je verantwoordelijk kunt stellen. Maar kan de technologie ook aansprakelijk zijn? Is dat dan een digitale entiteit, een juridisch persoon? Op zulke vragen moeten we antwoorden verzinnen.”

Menselijke metaforen

Sinds Noorman bij TILT werkt, het Tilburg Institute voor Law, Technology and Society, zitten naast de ethische ook reguleringsvragen in haar pakket: is de bestaande wetgeving voldoende of moet er nieuwe komen, en hoe dan? Alle vragen die daarvoor relevant zijn als het gaat om AI, en de bijbehorende disciplines (niet toevallig die van TILT), heeft ze inmiddels bestudeerd. Het begon met een studie AI aan de Universiteit van Amsterdam en een baan bij een softwarebedrijf voor onder meer gezichtsherkenning. “Maar al snel had ik het idee: aan AI zitten maatschappelijke aspecten aan waar ik niet aan toe kom,” vertelt ze. Daarom pakte ze Science & Technology Studies op en promoveerde ze bij Filosofie in Maastricht. Ze verdiepte zich in de vraag waarom we vaak menselijke metaforen toepassen op computers, zoals hoe intelligent ze zijn of hoe autonoom, hoe die ideeën de technologie sturen maar ook: hoe dat anders zou kunnen. Wil je een computer zelfstandig laten te werk laten gaan, of juist in samenwerking met de mens? De fundamentele filosofische en ethische vragen deden haar uiteindelijk belanden bij TILT.

Het probleem is dat ChatGPT doet alsof de gegenereerde antwoorden waar zijn

Valse verwachtingen

Ook aan ChatGPT kleven vele ethische vragen, mede afhankelijk van het toepassingsgebied waarvoor het wordt gebruikt. Het systeem genereert antwoorden op vragen van gebruikers door in te schatten wat het meest waarschijnlijk is op basis van informatie op internet. Maar het wekt wel valse verwachtingen. "Het probleem is dat ChatGPT doet alsof de gegenereerde antwoorden waar zijn," aldus Noorman. “In de VS was een advocaat die zijn pleidooi niet op waarheid had gecheckt; dat illustreert dat er nog vragen open staan.”

Het zijn zelfs nog vele vragen. Wat je moet weten van het systeem is bijvoorbeeld dat het last heeft van ‘automatische bias’, omdat het internet daar ook vol mee staat. Minderheden zijn op internet niet gelijk gerepresenteerd, wat kan leiden tot onjuiste of onvolledige antwoorden. Bovendien zit er nog veel mensenwerk in het systeem: uitspraken worden gefilterd voordat ze toegevoegd worden aan de informatie waarmee het systeem zich voedt. Dat is monnikenwerk, vaak uitgevoerd door laagbetaalde krachten. En wie checkt of medische informatie klopt? Afgezien van of het juist is, wordt er in het ene land anders mee omgegaan dan in het andere. Hoe gaat het systeem om met persoonsgegevens? Wat als het gevoed wordt met fake news, of zelfs gemanipuleerde beelden ofwel deepfakes? Hoe zorg je dat grote tech-bedrijven in de hand worden gehouden? En dan is er het megahoge energiegebruik van zo'n AI-systeem, dat in tijden van energietransitie wel een factor van belang is.

Het blijft een soort wapenwedloop: altijd zijn er ook mensen die het systeem proberen te kraken en misbruiken

Leren omgaan met AI

"Hoe we die vragen oplossen, zijn we nu aan het ontdekken", zegt Noorman. “In wet- en regelgeving kun je denken aan eisen met betrekking tot transparantie over het systeem, of een verplichting om mee te delen dat er AI aan te pas komt. Mensen die regulering handhaven zouden bovendien kennis moeten hebben hoe de technologie werkt. Maar het blijft een soort wapenwedloop: altijd zijn er ook mensen die het systeem proberen te kraken en misbruiken.” 

De kern is dat we met AI als nieuwe technologie moeten leren omgaan, wij allemaal. "Het wordt wel een hele opgave," denkt Noorman, "kijk maar naar wat kinderen nu meekrijgen van sociale media. Het gaat meestal goed, maar kan ook goed fout gaan als ze bijvoorbeeld een verkeerd zelfbeeld krijgen. Je kunt het niet helemaal loslaten – en er is ook wet- en regelgeving nodig om te kunnen ingrijpen.” 

AI gaat dus zeker ons leven veranderen, maar net als bij andere uitvindingen zijn dat waarschijnlijk niet de dingen die we nu bedenken. Noorman: “Belangrijk is om niet te speculeren, maar te kijken wat er in de praktijk gebeurt. We kunnen nu keuzes maken. Ik probeer die keuzes expliciet te maken en mensen bij elkaar te krijgen om ze te maken.”

Transparante inzet van AI

Een van de toepassing waar ze als onderzoeker bij betrokken is, is een transparante inzet van slimme AI in de verdeling van beschikbare elektriciteit in Nederland. Vragen die daarbij voorliggen zijn: Wie mag er eerst opladen aan een laadpaal, degene die het eerst komt of zijn daar uitzonderingen op mogelijk? Krijgt iedereen evenveel? Welke waarden zijn hoe belangrijk: veiligheid, betaalbaarheid, toegankelijkheid, duurzaamheid? Alle afwegingen beïnvloeden het algoritme dat je inzet. 

Zorgen dat verantwoordelijkheid voor nieuwe technologie goed belegd is, dat is waar het bij Noorman iedere dag om draait. Zodat we niet doordenderen op een rijdende trein, maar ons afvragen: is dit wat we willen? ”Ik hoop mensen meer inzicht te geven in de context van technologie en hoe de techniek grote ethische vragen kan oproepen. Waar moeten we iets mee doen en waar niet? Dat vind ik belangrijk in mijn onderzoek, maar zeker ook voor mijn rechten- en data sciencestudenten. Zij zijn per slot van rekening de volgende generatie.”

Publicatiedatum: 25 september 2023