Regulating Socio-Technical Change
Technologie speelt een steeds indringender rol in ons leven, maar de regelgeving om dat in goede banen te leiden loopt vaak achter. Wij bestuderen hoe we nieuwe technologie via regelgeving zo in de samenleving kunnen integreren, dat iedereen er baat bij heeft.
Het effect van socio-technische veranderingen op wet- en regelgeving manifesteert zich op twee manieren. De eerste is wanneer nieuwe technologieën onze manier van leven veranderen of nieuwe risico’s creëren. Hoe kan de wet- en regelgeving daaraan worden aangepast? Hoe reguleren we bijvoorbeeld de gezondheidszorg wanneer de patiënt interacteert met een computerprogramma? Hoe moeten we omgaan met cybercriminaliteit en cyberbeveiligingsrisico's? De tweede manier waarop regulering verandert is wanneer nieuwe technologieën zoals AI beslissingen nemen in plaats van mensen. Als de regulering door technologie gebeurt, hoe zorgen we er dan voor dat die rechtvaardig is en ons niet in de steek laat?
Het onderzoeksprogramma Regulating socio-technical change wordt uitgevoerd in drie clusters:
- Governance: gericht op de relatie tussen macht en technologie en wat de rol van recht en instellingen is in deze nieuwe ruimte;
- Grondrechten en technologie: gericht op privacy en gegevensbescherming, cybercriminaliteit en cyberveiligheid en de relatie tussen AI en grondrechten;
- Mededinging en innovatie: gericht op de uitdagingen van de regulering van digitale en energiemarkten.
Lees meer over het onderzoeksprogramma Regulating Socio-Technical Change
Highlights
Enkele projecten:
-
Een raamwerk voor datarechtvaardigheid op mondiaal niveau
Plaatsen en bevolkingsgroepen die vroeger digitaal onzichtbaar waren, maken nu deel uit van een ‘datarevolutie’ die menselijke en economische ontwikkeling zou gaan transformeren.
Meer informatie -
MEGAMIND: AI en regulering van het elektriciteitssysteem
MEGAMIND richt zich op de zogenaamde randen van het elektriciteitssysteem: de distributienetwerken en de daarop aangesloten elektriciteitsproducerende en -verbruikende apparaten.
Meer informatie -
Handreiking voor niet discriminerende algoritmes
Algoritmen worden steeds vaker ingezet om risico-gestuurd te werken en geautomatiseerde besluiten te nemen. Maar een groot risico daarvan, zeker bij zelflerende systemen, is dat niet meer duidelijk is hoe de besluitvorming tot stand komt. Dat dit fout kan gaan bleek maar al te goed uit de kindertoeslagaffaire, waarbij minderheden onder meer door algoritmen stelselmatig werden gediscrimineerd door de Belastingdienst.
Meer informatie -
Het recht om alleen gelaten te worden
Veni project - Bart van der Sloot: Kan privacy zo worden geherconceptualiseerd dat het ook bescherming biedt tegen ontwrichtende informatie over jezelf, de mogelijkheid biedt tot integratie daarvan en zo ja, wat zou dat inhouden?
Meer informatie