Het nieuwe Strategisch Actieplan voor Artificiële Intelligentie: is privacy nog levensvatbaar?

10-01-2020

Uit het Strategische Actieplan voor Artificiële Intelligentie (AI) dat in oktober door het ministerie van Economische Zaken en Klimaat (EZK) is uitgebracht, blijkt dat voornamelijk de markt in actie moet komen. In het actieplan staan drie actiepunten: het benutten van maatschappelijke en economische kansen, het scheppen van de juiste voorwaarden en het versterken van fundamenten.

auteur: Hoven van Genderen, Rob van den

Het actieplan voor AI is bedoeld om onderzoek rondom- en toepassing van AI in Nederland te versnellen en versterken.(1) Het doet me sterk denken aan het ‘Informatica stimuleringsplan’ uit 1983. Men vond het destijds nodig een overheidsbeleid te ontwikkelen, omdat het gebruik van informatica gestimuleerd moest worden, omdat men ervoor vreesde dat de markt zou verzuimen de nieuwe technologie te benutten en zodoende achter zou blijven. Aandacht voor privacy was ondergeschikt aan de economische ontwikkeling; eigenlijk speelde privacy helemaal geen rol. De markt moest geholpen worden door de overheid en informatica was de sleutel voor de toekomst. Dit AI-actieplan bewandelt eenzelfde route. Logische gemeenplaatsen die in elk vergelijkbaar plan worden herhaald. AI is de sleuteltechnologie voor de toekomst.

Maatschappelijke en economische kansen

Evenals in 1983 is bij het eerste actiepunt, het benutten van maatschappelijke en economische kansen, publiek-private samenwerking van groot belang. Deze keer met de Nederlandse AI Coalitie (NLAIC) en Europese partners, met het accent op mens en maatschappij en niet te vergeten: inclusiviteit.

De oriëntatie op de toepassing van AI bij de overheid lijkt vooral gericht op efficiëntie en effectiviteit, privacy en transparantie zijn van later zorg; samenwerking bij de uitwisseling en koppeling van gegevens en databestanden zijn van groter belang. Iconografisch vertaald: “De overheid maakt optimaal gebruik van AI bij publieke taakuitvoering.” Een verwijzing naar de FAIR-principes voor datagebruik vergroot deze verdenking door aan te geven dat “data geschikt worden gemaakt, of kan hun geschiktheid worden vastgesteld voor hergebruik (delen) door zowel mensen als machines onder duidelijk beschreven condities”.(2) Gelukkig wordt regelmatig herhaald dat alle oplossingen transparant en voor de burger toegankelijk moeten zijn. Daarnaast wordt overal onderzoek gedaan naar slimme (smart) oplossingen. Van energietransitie tot onderzoek naar autonome voertuigen waar problemen moeten worden geïnventariseerd op multidisciplinaire basis:

“Autonoom rijden zal de veiligheid verhogen, maar leidt ook tot vragen, bijvoorbeeld over het omgaan met onzekerheden binnen autonome systemen. Waar ligt de verantwoordelijkheid voor de besturing? Hoe kunnen AI-algoritmen voor autonoom rijden worden gecontroleerd en uitgelegd aan de verschillende belanghebbenden voor acceptatie en veiligheid, etc. Het CWI, TNO, de Faculteit der Rechtsgeleerdheid van UvA en het Instituut voor Informatica van UvA werken onder de noemer ‘Meaningful Control of Autonomous Systems’ (MCAS) samen aan een antwoord op deze vraagstukken.(3)

Toch moeten we opschieten want zoals beschreven in het actieplan kan er een dynamiek ontstaan van de ‘winner takes it all’ of ‘takes most’. Er ontstaat een kans dat Nederland afhankelijk wordt van andere partijen. Wat niet alleen schadelijk is voor de autonomie, maar ook voor de economische veiligheid en ons welzijn.(4)

Op alle fronten worden AI-meerjarenprogramma’s uitgebracht, voor onderwijs, overheid en bedrijfsleven in onderzoekslabs, onder andere tussen TNO en defensie. De voorbeelden van samenwerking bevinden zich op gevaarlijk terrein:

Momenteel worden, vaak in samenwerking met wetenschappelijke instellingen, onderzoeken verricht naar de kansen voor toepassing van AI, bijvoorbeeld voor cybersecurity, politietaken en defensie. Daarbij is ook uitdrukkelijk aandacht voor ethische aspecten en proportionaliteit.” In 2020 wordt een rapport uitgebracht over “de effectiviteit van de toepassing van AI voor de politietaak en de ethische aspecten van AI”.

De regelmatige herhaling van ethische aspecten doet het ergste vermoeden. Als voorbeeld wordt andere verwezen naar ‘het selecteren van relevant beeldmateriaal voor opsporingsonderzoek’.(5) Bij defensie gaat het onder andere om data-analyses en “verdere ontwikkeling van algoritmes, commandovoering en op de interactie tussen verschillende onbemande systemen”. Maar ook in de zorg, landbouw en energietransitie worden onderzoeken voorbereid en nieuwe rapporten verwacht. De overheid gaat ook aan de slag met AI in de openbare ruimte. Dit gaan ze niet zelf verzinnen, ze laten dit graag over aan de markt, die zodoende wordt uitgedaagd om “met vernieuwende oplossingen te komen voor een betere taakuitvoering”. Om toepassing van AI in de open ruimte te realiseren wordt wederom vooral een oproep aan de eerder gememoreerde Nederlandse AI coalitie gedaan.(6) Toch is de overheid is zelf ook aan de slag gegaan, zonder twijfel met hulp van de Coalitie, verwijzend naar het feit dat “op diverse plekken binnen de overheid al experimenten plaatsvinden met AI-toepassingen zoals chatbots, beslisalgoritmes en vertaalalgoritmes.(7) En natuurlijk worden de smart AI-startups gestimuleerd, waardoor “de kennisdeling en valorisatie van AI-toepassingen wordt versterkt.(8)

Educatie en bewustwording

Het tweede actiepunt richt zicht op educatie en bewustwording. Nederland wil voorloper zijn bij de ontwikkeling en toepassing van AI, want met een goed opgeleide bevolking en een ‘open mind’ voor nieuwe kansen beschikken we immers over de capaciteiten. Een schot voor open doel: “Nederland heeft een al een voorhoedepositie in Europa in kwalitatief hoogwaardige digitale en intelligente connectiviteit voor effectieve AI-toepassingen”.(9) Ook adviesbureau McKinsey geeft aan dat Nederland op alle fronten bovengemiddeld scoort wat betreft AI-readiness. Bovendien heeft Nederland al een toppositie in fundamenteel en toegepast onderzoek. De nadruk ligt op fundamenteel onderzoek, dat verbonden is met toegepast en praktijkgericht onderzoek. Dit betekent (waarschijnlijk) dat ook fundamenteel onderzoek praktisch moet kunnen worden aangewend. Dit accent is terug te vinden in de wetenschapsagenda van de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO), waar vooral aandacht is voor verantwoord, human centric, vertrouwenwekkend, transparant en uitlegbaar AI-onderzoek.(10) Multidisciplinair onderzoek naar AI is natuurlijk ‘leading’ , AI is immers van toepassing op alle disciplines en alle maatschappelijke sectoren. Daarbij wordt verwezen naar het ‘bijna religieuze missiegedreven innovatiebeleid op initiatief van het Topteam Dutch digital delta”.(11)

Maar er is niet alleen goed nieuws. Door de populariteit van AI studies is er een toenemend docententekort om studenten op te leiden die in staat zullen zijn om de maatschappij te voorzien van voldoende kennis van de toepassing en consequenties van AI. Maar ook hiervoor zijn oplossingen voorhanden, zoveel mogelijk informatie delen, dan begrijpt iedereen waar het over gaat. Blijkbaar is het gebrek aan goed opgeleide docenten toch niet zo relevant.

Het delen van data is een toverformule die meermalen aan de orde komt:

Door verschillende typen data van verschillende partijen te combineren, kunnen waardevolle nieuwe datasets ontstaan die nieuwe AI-toepassingen mogelijk maken. Om die potentie te verzilveren is het noodzakelijk dat publieke, private en maatschappelijke organisaties onderling meer data kunnen delen. Het spreekt vanzelf dat dit verantwoord en met inachtneming van onder meer de privacyregels moet gebeuren.”

Wel dienen de data van hoge kwaliteit te zijn en zonder vooringenomenheid.(12)

En daar komt het veiligheidsventiel van de bescherming van de privacy en transparantie weer te voorschijn. Het is alleen jammer dat hier geen concreet onderzoeksvoorstel aan wordt gekoppeld.

Versterken van fundamenten

Het derde actiepunt richt zich concreet op de fundamentele rechten, privacyaspecten en ethiek. Gelukkig wordt erkend dat de grondrechten een belangrijke rol spelen bij de toepassingen van AI. De overheid heeft in dit rapport diepgaand over deze kwestie nagedacht. Geconstateerd wordt dat “de privacy kan worden geschonden als de verwerking van persoonsgegevens niet voldoet aan de eisen van behoorlijkheid en transparantie uit de Algemene verordening gegevensbescherming (AVG)”.(13) De gevaren komen duidelijk in het vizier bij het gebruik van gezichtsherkenningstechnologie en big data. Tevens wordt aandacht besteed aan hoe AI de vrijheid van meningsvorming in gevaar kan brengen, hoe de menselijke waardigheid en autonomie kan worden aangetast, en hoe het recht op een eerlijk proces door te veel te leunen op AI kan worden geschaad.

Gelukkig zijn naar de Kamer beleidsbrieven gestuurd over AI, publieke waarden en mensenrechten, en AI en rechtspleging. In de beleidsbrieven kondigt het kabinet beleid aan om publieke waarden en mensenrechten bij AI-ontwikkelingen te borgen. Deze brieven en beleidsvoorstellen zijn gebaseerd op het onderzoek van onder andere de Universiteit Utrecht en zoals een document van Mireille Hildebrandt en een rapport van het Rathenau instituut over AI.(14) Overigens wordt mijn vertrouwen in de overheid niet direct versterkt door de antwoorden van de minister, onder andere ten aanzien van het transparantiebeginsel:

“De overheid is in andere gevallen waarin zij algoritmes gebruikt, niet op voorhand gehouden deze inzichtelijk en controleerbaar te maken c.q. nuttige informatie over de onderliggende logica te verschaffen. Te denken valt aan gevallen waarin de overheid toezicht houdt en in dat kader met behulp van algoritmes risico’s taxeert dat personen zich niet aan de wet houden. Het gebruik van dergelijke risicotaxatie-instrumenten kan bijdragen aan een efficiëntere en effectievere inzet van capaciteit.”(15)

Het onderscheid met het Chinese ‘social credit system’ is niet zo groot!

Gelukkig wordt later in het rapport aangegeven dat het AI-beleid dient te voldoen aan aanvaarde ethische kaders en dat AI kan worden ingezet om discriminatie en vooringenomenheden te vermijden, zodat het vertrouwen van de burger in AI kan worden versterkt. Of maatschappelijke actoren zijn hier al mee bezig, óf ze worden gestimuleerd de ethische toepassing, transparantie in de zin van uitlegbaarheid van betrokkenen en normering hiervan te realiseren. En vreest niet, er is al een NEN-normcommissie AI die best practices en kaders voor betrouwbare en ethisch verantwoorde AI-toepassingen ontwikkelt. Daarnaast wordt het investeren in nader onderzoek voorzien naar verantwoord AI-gebruik, transparantie/uitlegbaarheid en toezicht van algoritmes. Hiertoe wordt onder andere een onderzoekscall door NWO geagendeerd over uitlegbare, sociaal bewuste en verantwoorde AI.

Zou dit leiden tot concrete voorstellen om de transparantie van AI en de onderliggende algoritmes te bevorderen en te reguleren? Is het nodig, en is het wel haalbaar? Kunnen we zelflerende algoritmes wel controleren, en (waarom) zouden de betrokkenen dat altijd willen weten? De regels in de AVG zijn zo’n dusdanig niveau dat de realiseerbaarheid en vastlegging van controleniveaus niet is vast te stellen. Het lijkt mij van groter belang dat AI op een rechtmatige en rechtvaardige wijze wordt toegepast. De AI-technologie zal ontegenzeggelijk in toenemende mate onderdeel gaan vormen van onze samenleving. Ethiek en privacy zijn dynamische en flexibele beginselen die zich soepel vormen aan praktische toepassing, sociaal-culturele opvattingen en politiek, zowel in positieve als negatieve zin. De vraag is of een actieplan daarom eigenlijk wel zin heeft.

Voetnoten

(1) https://www.privacy-web.nl/publicaties/strategisch-actieplan-voor-artificiele-intelligentie
(2) Strategische Actieplan voor Artificiële Intelligentie. Pagina 34
(3) Strategische Actieplan voor Artificiële Intelligentie. Pagina 18
(4) Strategische Actieplan voor Artificiële Intelligentie. Pagina 10
(5) Strategische Actieplan voor Artificiële Intelligentie. Pagina 15
(6) Strategische Actieplan voor Artificiële Intelligentie. Pagina 19
(7) Strategische Actieplan voor Artificiële Intelligentie. Pagina 20
(8) Strategische Actieplan voor Artificiële Intelligentie. Pagina 24
(9) Strategische Actieplan voor Artificiële Intelligentie. Pagina 9
(10) Strategische Actieplan voor Artificiële Intelligentie. Pagina 27
(11) Strategische Actieplan voor Artificiële Intelligentie. Pagina 29
(12) Strategische Actieplan voor Artificiële Intelligentie. Pagina 34
(13) Strategische Actieplan voor Artificiële Intelligentie. Pagina 41
(14) Mireille Hildebrandt: position paper voor rondetafelgesprek over “AI in het recht” in de Tweede Kamer, 29 maart 2018; Rathenau Instituut: Opwaarderen. Borgen van publieke waarden in de digitale samenleving (2017)
(15) Kamerstuk 26643, nr. 570.


Dit artikel is ook te vinden in het dossier Digitale transformatie

Van onze partners

Masterclass Privacy: the next step

→ Lees meer

Nieuwsbrief

Blijf op de hoogte van het laatste nieuws over privacy, cybersecurity en data. Abonneer op onze gratis nieuwsbrief.

Abonneer