Het algoritmeregister, een nuttige oplossing voor de praktijk?

20-10-2020

Nina Orlić

De Gemeente Amsterdam heeft een algoritmeregister aangekondigd om de transparantie over gebruikte algoritmes en het maatschappelijk draagvlak ervan te vergroten. Maar wat is nu eigenlijk het ‘probleem’ met het gebruik van algoritmes? En komt zo een register wel (voldoende) tegemoet aan de maatschappelijke discussie en de rechten van individuen in de praktijk?

De Gemeente Amsterdam heeft, samen met de Finse hoofdstad Helsinki, een algoritmeregister gelanceerd. Hiermee wordt beoogd om de openheid en transparantie over algoritmes en het maatschappelijk draagvlak voor het gebruik daarvan te vergroten. Door het register wordt iedereen in staat gesteld om gebruikte algoritmes in te zien en mee te denken in het herkennen, dan wel het aanpakken, van de potentiële risico’s ervan.

Dat er steeds meer te doen is over de inzet van algoritmes binnen het bedrijfsleven en de overheid, is algemeen bekend. Vaak wordt dit onderwerp gelijkgeschaard met artificiële intelligentie (AI). Eind 2019 informeerde Staatssecretaris Keijzer de Tweede Kamer over het Strategisch Actieplan voor AI en daarnaast lekte een white paper van de Europese Commissie over AI begin 2020 uit. In beide stukken wordt aandacht besteed aan de inzet van AI, of eigenlijk algoritmes, in de praktijk en de behoefte aan verdergaande wet- en regelgeving om dit in goede banen te leiden. Maar waar hebben we het dan over?

Algoritmes zijn in de basis niets anders dan een vooraf bepaalde set instructies gericht aan een computer, die bepalen hoe om te gaan met informatie of data. Afhankelijk van het algoritme dat wordt gebruikt, kunnen de resultaten worden (her)gebruikt om een algoritme te trainen of te verbeteren. Bepaalde algoritmes kunnen dus door verloop van tijd ‘slimmer’ of beter worden voor het doel waarvoor ze worden ingezet. Daarnaast kan de computer ook geen onderscheid maken en zal dus voor alle situaties dezelfde set aan instructies volgen. Dat klinkt veelbelovend. De Gemeente Amsterdam maakte bijvoorbeeld al gebruik van algoritmes in het kader van parkeercontroles en de bestrijding van illegale woningverhuur.

Dit heeft echter ook een keerzijde. Het gebrek aan maatwerk kan, zeker in de verhouding overheid-burger tot onredelijke of onbillijke uitkomsten leiden. Dat risico kan bijvoorbeeld voortkomen uit de vooringenomenheid, bias, van de partij die het algoritme ontwikkelt, of laat ontwikkelen. Een andere mogelijkheid is dat het gebrek van een deugdelijke uitkomst aan de data zelf kleeft. De inzet van algoritmes vergt dus een zorgvuldige afweging van enerzijds de factoren die een rol in het beslissingsproces spelen en anderzijds van de data op basis waarvan de analyse wordt verricht.

Het probleem met algoritmes is echter, dat het lang niet altijd mogelijk is de gebreken te achterhalen. Het zogenaamde ‘black box’ fenomeen, waarbij de uitkomst niet meer te achterhalen valt, ligt bij het gebruik van algoritmes op de loer. Dit is ook precies de reden waarom bijvoorbeeld de Algemene verordening gegevensbescherming (AVG) het recht op menselijke tussenkomst probeert te waarborgen bij volledig geautomatiseerde besluitvorming (op basis van algoritmes). Dit beoogt te voorkomen dat betrokkenen besluiten krijgen tegengeworpen of in aanmerkelijke mate worden getroffen door een uitkomst op basis van een algoritme, zonder dat daarin sprake is geweest van menselijke tussenkomst.

Een andere waarborg die de AVG biedt, is dat betrokkenen op betekenisvolle wijze moeten worden geïnformeerd over de onderliggende logica en de verwachte gevolgen van het gebruik van bijvoorbeeld een algoritme. Over de wijze waarop aan deze verplichtingen in de praktijk uitvoering moet worden gegeven bestaat veel discussie. Over het algemeen is men het erover eens dat zowel de menselijke tussenkomst als de informatie ‘betekenisvol’ moet zijn voor het betrokken individu, maar wat daaronder wordt verstaan staat dan – uiteraard – wel ter discussie.

Gelet op het maatschappelijke en academische debat over dit onderwerp lijkt het algoritmeregister van de Gemeente Amsterdam een waardevolle zet. Het biedt (bezorgde) burgers en bedrijven in elk geval de mogelijkheid een kijkje in de keuken te nemen en kritische vragen te stellen over het beleid dat gevoerd wordt. Het praktisch nut ervan zal echter nog moeten blijken. Het valt te betwijfelen of de informatie die over de algoritmes wordt verstrekt, daadwerkelijk voldoende inzicht zal geven om de meest impactvolle risico’s daarvan te beperken en of dit door de gemiddelde burger kan worden begrepen. Ook is het de vraag wat er vervolgens gebeurt met een geconstateerd risico. Kan in een dergelijk geval menselijke tussenkomst of een aanpassing van het algoritme worden afgedwongen, of is dat een keuze van de gemeente? Is het geraakte individu eenvoudigweg niet meer gebaat bij een volledige heroverweging van het resultaat, als blijkt dat het algoritme niet deugt en moet het proces met het oog op het voorkomen van toekomstige fouten dan niet ook worden aangepast? En wat als er niemand kijkt naar de (on)deugdelijkheid, kan de gemeente zich dan verschuilen achter de verschafte transparantie? Ligt het dan op de weg van de burgers en het bedrijfsleven om te voorkomen dat de gemeente fouten maakt bij de toepassing van algoritmes in de praktijk?

Het register en het gebruik ervan kan in ieder geval bijdragen aan waardevolle inzichten. In het bijzonder omdat het gebruik van algoritmes in de praktijk onmisbaar is en de roep om verdergaande regulering daarvan aanhoudt. Het initiatief tot het register en het streven naar transparantie en openheid is dan ook lovenswaardig.


Meer artikelen van Loyens & Loeff

Nieuwsbrief

Blijf op de hoogte van het laatste nieuws over privacy, cybersecurity en data. Abonneer op onze gratis nieuwsbrief.

Abonneer