woman with camera

Disruptieve AI vraagt om disruptieve wet- en regelgeving

Published: 04 maart 2024 Laatst bijgewerkt: 04 maart 2024

Generatieve AI, ofwel generatieve artificiële intelligentie, ontwikkelt zich met ongekende snelheid. De kansen van toepassingen zoals ChatGPT lijken eindeloos, maar dat geldt ook voor de gevaren. Hoe moeten we deze technologie reguleren opdat de risico's worden beteugeld en de kansen optimaal kunnen worden benut? Bart van der Sloot van het Tilburg Institute for Law, Technology and society (TILT) beantwoordt deze vraag in zijn nieuwste boek ‘Regulating the Synthetic Society’.

Experts voorspellen dat over vijf jaar meer dan 90 procent van alle digitale content volledig of gedeeltelijk door AI wordt gegenereerd. In zo'n ‘synthetische samenleving’ is mogelijk niet langer vast te stellen wat echt is en wat niet, laat Van der Sloot zien in zijn boek. Hoewel generatieve AI relatief nog in de kinderschoenen staat, kan deze technologie al inhoud produceren die niet van echt is te onderscheiden. De impact van deze nieuwe realiteit op de democratie, de rechtsstaat, het functioneren van de pers en op persoonlijke relaties, is mogelijk ongekend.

In zijn boek laat Van der Sloot zien hoe synthetische technologieën zoals ChatGPT, deepfakes en augmented en virtual reality werken en bespreekt hij toepassingen in het onderwijs, de zorg en voor entertainment. Maar hij maakt ook duidelijk hoe generatieve AI gebruikt kan worden voor fraude, uitbuiting en identiteitsdiefstal. Daarnaast onderzoekt hij de diepere effecten zoals een post-truthsamenleving, de privatisering van de publieke sfeer en het verlies van individuele autonomie en maatschappelijk vertrouwen.

10 aanbevelingen

Om de basispijlers van onze samenleving te beschermen tegen de schadelijke gevolgen van Generative AI moeten volgens Van der Sloot wijzigingen in de huidige wet- en regelgeving worden overwogen. Hij onderscheidt tien fundamentele punten die aandacht behoeven:

  1. Informatiepositie: Er is dringend behoefte aan meer informatie over AI, zowel bij burgers als bij toezichthouders. Marktpartijen moeten beter worden geïnformeerd over bestaande regelgeving die van toepassing is op AI.
  2. Strategische autonomie: Publieke alternatieven voor private en essentiële AI moeten worden overwogen, evenals bredere export- en importbeperkingen.
  3. Technologische specificaties: De noodzaak voor het vastleggen van technische criteria, verboden en moratoria (denk bijvoorbeeld aan stemklonen) moet worden onderzocht. 
  4. Voorzorgsbeginsel: Het voorzorgsbeginsel (als de risico's van een technologie onbekend zijn, mag deze niet worden toegepast) moet mogelijk worden toegepast op generatieve AI.
  5. Effectiviteit: De effectiviteit van een AI-toepassing moet worden bewezen voordat deze wordt toegepast.
  6. Maatschappelijke belangen: Maatschappelijke belangen en de cumulatieve effecten van synthetische technologieën moeten worden meegewogen in het regelgevingsregime.
  7. Wetgevingswijzigingen: Er moet worden nagedacht over wijzigingen aan het wettelijk kader, onder meer om virtuele verkrachting strafbaar te stellen.
  8. Toezicht: Een gespecialiseerde toezichthoudende autoriteit voor AI moet worden overwogen, die ruime bevoegdheden en middelen krijgt.
  9. Samenwerking: Er is meer samenwerking nodig tussen toezichthouders en overheidsinstanties van landen die de democratische rechtsstaat respecteren.
  10. Sancties: De capaciteit van toezichthoudende autoriteiten om boetes op te leggen en de schadevergoedingen die aan burgers worden uitgekeerd moeten zo groot zijn dat ze een afschrikkend effect hebben.

De open acces versie van Regulating the Synthetic Society door Bart van der Sloot is hier beschikbaar en het boek is ook te verkrijgen als paperback. Het wordt aanbevolen door vooraanstaande experts: 

  • ‘Een meeslepend boek,’ – Rechter Maja Brkan, Hof van Justitie Europese Unie; 
  • ‘Niet te missen,’ Prof. Luciano Floridi, Yale University.
Noot voor de pers

Neem voor meer informatie contact op met Bart van der Sloot via b.vdrsloot@tilburguniversity.edu