Kunstmatige intelligentie wordt in rap tempo onderdeel van het dagelijks leven. Van chatbots die vragen beantwoorden tot systemen die sollicitaties selecteren of risico’s inschatten bij strafzaken.
Wat nog ontbreekt, zijn duidelijke spelregels. Volgens de Autoriteit Persoonsgegevens is de opkomst van kunstmatige intelligentie sneller gegaan dan de wetgeving eromheen. Daardoor worden zulke systemen inmiddels op allerlei plekken gebruikt, terwijl nog niet altijd duidelijk is welke regels daarvoor precies gelden.
Voorzitter Aleid Wolfsen zegt dat dat verschil steeds zichtbaarder wordt. Bedrijven en overheden experimenteren al met toepassingen die data analyseren, voorspellingen doen of automatisch selecties maken. Juist wanneer zulke systemen invloed krijgen op beslissingen over mensen, vindt de toezichthouder dat er duidelijke regels moeten zijn.
Herinnering aan het toeslagenschandaal
De waarschuwing van de toezichthouder staat niet los van recente ervaringen in Nederland. Het toeslagenschandaal liet zien hoe ingrijpend de gevolgen kunnen zijn wanneer systemen worden gebruikt zonder dat voldoende wordt gekeken naar de effecten voor burgers.
Duizenden ouders werden destijds onterecht aangemerkt als fraudeur. In de praktijk bleek dat een systeem risicoprofielen gebruikte waarin discriminerende factoren een rol speelden. De affaire maakte duidelijk hoe groot de impact kan zijn wanneer technologie een rol speelt bij besluiten van de overheid.
Volgens de Autoriteit Persoonsgegevens is dat een belangrijke les nu kunstmatige intelligentie steeds vaker wordt ingezet.
Wanneer algoritmes invloed krijgen
Steeds meer organisaties experimenteren met systemen die grote hoeveelheden data analyseren en voorspellingen doen. Dat kan gaan om fraudedetectie, personeelsselectie of risico-inschattingen binnen het strafrecht.
Dat soort toepassingen kan nuttig zijn, maar ze brengen ook vragen met zich mee. Wie controleert het systeem? Hoe wordt bepaald welke gegevens worden gebruikt? En wat gebeurt er wanneer een algoritme een verkeerde conclusie trekt?
Wolfsen wees eerder op voorbeelden waarbij algoritmes werden gebruikt om het risico op herhaling van criminaliteit in te schatten. In zulke gevallen, zegt hij, gaat het uiteindelijk om “beslissingen over mensen”, waarbij een AI-systeem zelfs verkeerde adviezen kan geven.
Juist daarom is volgens de toezichthouder transparantie belangrijk. Mensen moeten kunnen begrijpen hoe een besluit tot stand komt, zeker wanneer dat besluit grote gevolgen heeft.
Europese regels liggen al klaar
In Brussel is inmiddels een uitgebreide wet aangenomen die het gebruik van kunstmatige intelligentie moet reguleren. Die AI-wet verdeelt toepassingen in verschillende categorieën op basis van risico.
Hoe groter de mogelijke impact op burgers, hoe strenger de regels. Voor sommige systemen gelden verplichtingen rond transparantie, veiligheid en menselijk toezicht. Andere toepassingen worden zelfs volledig verboden.
Het doel van de wet is om innovatie mogelijk te houden, maar tegelijkertijd te voorkomen dat technologie wordt ingezet op manieren die schadelijk kunnen zijn.
De vraag wie toezicht houdt
Voor Nederland ligt de uitdaging vooral bij de uitvoering van die regels. Europese wetgeving moet nog worden vertaald naar nationale afspraken over toezicht en handhaving.
De Autoriteit Persoonsgegevens vindt dat dat proces sneller moet. Nieuwe technologie wordt immers al op grote schaal gebruikt, terwijl het toezicht nog in ontwikkeling is.
Volgens Wolfsen is het logisch dat systemen eerst worden getest voordat ze breed worden ingezet. “Die moeten worden getest. Die moeten veilig zijn.” In andere sectoren, zoals medicijnen of auto’s, is dat volgens hem vanzelfsprekend. Voor AI zou dat niet anders moeten zijn.
Technologie ontwikkelt sneller dan beleid
Een terugkerend probleem in het debat over kunstmatige intelligentie is het tempo. Waar wetgeving vaak jaren nodig heeft, verschijnen nieuwe AI-toepassingen in maanden of soms zelfs weken.
Bedrijven gebruiken AI voor analyses, automatisering en klantenservice. Overheden experimenteren met systemen die patronen in data herkennen of risico’s voorspellen.
Dat kan voordelen opleveren, maar het brengt ook onzekerheid met zich mee. Wanneer algoritmes worden getraind op scheve datasets kunnen ze bestaande ongelijkheid versterken. En wanneer systemen complex zijn, is het voor mensen moeilijk te achterhalen hoe een besluit precies tot stand komt.
Regels moeten nu worden uitgewerkt
Voor Nederland ligt de belangrijkste stap nu bij de uitvoering van de Europese AI-regels. Die wetgeving bestaat inmiddels, maar moet nog worden vertaald naar nationale afspraken over toezicht en handhaving.
Daarbij speelt onder meer de vraag welke instantie verantwoordelijk wordt voor controle op AI-systemen en hoeveel capaciteit daarvoor beschikbaar is. De Autoriteit Persoonsgegevens heeft het kabinet opgeroepen om daar snel duidelijkheid over te geven.
Wolfsen benadrukt dat nieuwe technologie eerst veilig moet worden getest voordat die breed wordt ingezet. “Die moeten worden getest. Die moeten veilig zijn.”
De komende jaren zal blijken hoe snel Nederland de Europese regels daadwerkelijk invoert. Ondertussen blijven bedrijven en overheden experimenteren met kunstmatige intelligentie, waardoor de discussie over toezicht en bescherming van grondrechten voorlopig nog niet zal verdwijnen.
Bronnen: NOS, Autoriteit Persoonsgegevens, Europese Commissie (AI Act)