DEN HAAG (ANP) - Overheidsorganisaties gebruiken volgens de Algemene Rekenkamer zeker 120 systemen op basis van kunstmatige intelligentie (AI). In bijna de helft van de gevallen is voor zover bekend geen afweging gemaakt over de risico's van zulke systemen, aldus collegelid Ewout Irrgang.
Systemen met kunstmatige intelligentie zijn niet met de hand geprogrammeerd, maar hebben met hulp van grote hoeveelheden data geleerd om taken uit te voeren. Daar kunnen problemen aan kleven zoals privacyschendingen en discriminatie. "Je kunt de risico's alleen beheersen als je ze kent", zegt Irrgang.
Het overgrote deel van de overheidsorganisaties gebruikt niet meer dan drie AI-systemen. Uitschieters zijn uitkeringsinstantie UWV, dat er tien in gebruik heeft, en de politie, waar dat er 23 zijn. Het UWV gebruikt AI onder meer om te voorspellen wie er na afloop van een uitkering geen inkomsten heeft, en om op basis daarvan ondersteuning te bieden. Irrgang: "Als systemen impact hebben op burgers, heb je eerder risico's."
Privacyschendingen
In gevallen waar de risico's wel zijn ingeschat, vinden overheidsorganisaties meestal dat die minimaal zijn. Maar ook dan is er kans op bijvoorbeeld privacyschendingen, merkt de Rekenkamer op. Een kleiner deel van de projecten wordt als "hoog risico" ingeschat. Het is niet uit te sluiten dat er ook AI-systemen worden gebruikt die binnenkort volgens EU-regels verboden zijn.
Hoe het risico precies wordt bepaald, verschilt van geval tot geval. Het kabinet zegt in een reactie de samenhang te willen verbeteren, en dat vindt Rekenkamer-collegelid Irrgang "positief".
Nut vaak onduidelijk
Niet alleen het risico, maar ook het nut van AI is vaak onduidelijk. Bij 42 van de 120 systemen is niet bekend of ze de verwachtingen waarmaken. Van de rest presteert het overgrote deel wel zoals verwacht of beter.
Het is de eerste keer dat de Rekenkamer AI-systemen onderzoekt. De controleur vroeg zeventig overheidsorganisaties om hun AI-gebruik in kaart te brengen, zoals het ministerie van Financiën, de douane en de NPO. Het is mogelijk dat er overheidsmedewerkers zijn die "ad hoc" programma's als ChatGPT gebruiken, maar die zijn niet in het onderzoek meegenomen. Dat geldt ook voor AI-systemen voor bijvoorbeeld militaire doelen of inlichtingen.