Kunstmatige intelligentie bij de overheid, einde van onze privacy?

11-07-2019

Hoven van Genderen, Rob van den

Het toepassen van artificiële intelligentie (AI) is een ontwikkeling die nogal ambivalent wordt beschouwd. Enerzijds geeft het geweldige mogelijkheden om efficiënter en effectiever resultaten te bereiken door analyse van grote hoeveelheden verschillende data (‘big data’) met behulp van AI. Anderzijds bestaat de angst dat het gebruik van zelflerende algoritmes en AI in een verdergaande aantasting van het toch al krimpende terrein van de persoonlijke levenssfeer zal resulteren.

Overheid en bedrijfsleven nemen met graagte hun toevlucht tot het gebruik van AI voor het profileren van burger en klant. Daarbij worden (deep-/zelf)lerende algoritmen als basis van het systeem gevoed met (big) data waaraan analyses tot resultaten leiden die de grondslag voor uiteindelijke besluitvorming vormen.

AI-gebruik in fraudeonderzoek

Bekende voorbeelden van de inzet van AI zijn gezichtsherkenning en kentekenregistratie, maar ook verdergaande bevolkingsonderzoeken gebaseerd op achtergrond en gedragsdata van burgers. Systemen als SyRi (Systeem Risico Indicatie) waarbij de overheid persoonsgegevens van burgers aan elkaar koppelt om verschillende vormen van fraude, misbruik en overtredingen op te sporen, lijken hun doel voorbij te streven.

Fraudeonderzoeken in geoormerkte wijken geven de indruk al te beginnen op discriminatoire basis. Een beperkt aantal gemeenten hebben ministeriële goedkeuring gekregen voor een dergelijk onderzoek: Eindhoven, Capelle aan den IJssel, Haarlem en Rotterdam. De burgers worden niet op de hoogte gebracht en zijn bij voorbaat verdacht, zo worden de acties gepercipieerd. In Rotterdam werden op grond van SyRi onderzoek 1.200 geadresseerden in het ‘register Risicomeldingen’ geplaatst, omdat volgens SyRi bij hen een verhoogde kans op fraude of andere misdrijven bestond. Inmiddels heeft burgemeester Aboutaleb de SyRi-experimenten in die stad eigenhandig een halt toegeroepen. Hij achtte de toepassing van SyRi disproportioneel ten aanzien van de inbreuk op de privacy van de burger, temeer daar de verkregen informatie werd gekoppeld aan geheime politie-informatie. Ook Eindhoven is gestopt met de experimenten.

Transparantie en voldoen aan AVG-eisen

Hoewel de overheid geacht wordt zorgvuldig om te gaan met de persoonsgegevens van haar burgers, lijken de eisen die in de AVG worden gesteld aan de verwerking van persoonsgegevens, waarbij verwerking rechtmatig, behoorlijk en transparant moet zijn, niet altijd even goed worden nageleefd. De betrokkene (dat is degene wiens persoonsgegevens worden verwerkt) heeft namelijk het recht te weten welke logica aan de verwerking ten grondslag ligt. Daarnaast heeft diegene het recht niet te worden onderworpen aan profilering die leidt tot een besluit met rechtsgevolgen.

Het probleem is dat de daadwerkelijke uitvoering van de in de AVG neergelegde eisen moeilijk is. De vereiste transparantie zal bij werking van algoritmen in de praktijk vrijwel nooit bekend (kunnen) worden gemaakt. Afgezien van het feit dat die werking voor nagenoeg niemand te begrijpen is, zal de handhaafbaarheid van die regels door de overheid sowieso vrijwel onmogelijk zijn. Daarnaast zullen de risico’s van het bekendmaken van die algoritmes veel te groot zijn. Bedrijfsgeheimen, auteursrechtschendingen en inbreuk op privacy door minder goedwillenden staan hieraan in de weg. De overheid zelf heeft daarbij ook niet de neiging om de gebruikte algoritmen inzichtelijk te maken. Pas na een WOB verzoek door de NOS wilden verschillende overheidsdiensten bijvoorbeeld inzichtelijk maken op welke wijze kunstmatige intelligentie door de overheid wordt toegepast. (1)

De toepassing van kunstmatige intelligentie door de overheid kan zeker positief worden toegepast en de werklast van de overheid voor een deel uit handen nemen. Maar er dient voor te worden gewaakt hier volledig op te vertrouwen en daarnaast dient te worden voorkomen dat sluipende discriminatie door selectieve data-analyse een onderdeel vormt van die toepassing. Zorgvuldigheid, rechtmatigheid en proportionaliteit bij zowel het ontwerp als de toepassing van AI-systemen is daarbij zeker voor de overheid een “conditio sine qua non”.

(1) https://app.nos.nl/datavisualisatie/2018/algoritmen/index.html


Dit artikel is ook te vinden in het dossier Digitale transformatie en Big Data

Van onze partners

Masterclass Privacy: the next step

→ Lees meer

Incompanymogelijkheden

Privacyweb biedt ook de mogelijkheid om de verschillende onderwerpen als incompanyworkshop/cursus te organiseren, in samenwerking met de deskundige docenten van de Berghauser Pont Academy.
Hierbij staat de kennisbehoefte van uw medewerkers centraal. U krijgt een uniek programma toegespitst op uw wensen.
Lees meer

Wilt u snel antwoord op uw vraag?
Hanna Rab (junior uitgever) informeert u graag over de mogelijkheden. Zij is te bereiken via tel. 020 - 8200 908 en e-mail hanna@berghauserpont.nl.

Nieuwsbrief

Blijf op de hoogte van het laatste nieuws over privacy, cybersecurity en data. Abonneer op onze gratis nieuwsbrief.

Abonneer