Overheid, positioneer algoritmes als oplossing

22-03-2021

Het gebruik van algoritmes binnen de overheid biedt kansen om beleid te maken en uit te voeren, gebaseerd op nauwkeuriger analyse en meer verfijnde instrumenten. Om uiteenlopende redenen zit Artificiële Intelligentie (AI) nu echter in de beklaagdenbank. Het recente rapport Aandacht voor Algoritmes van de Algemene Rekenkamer biedt aanknopingspunten om Nederland met een realistische kijk en verantwoord experimenteren te positioneren als vooruitstrevend AI-land, zeggen Bram Klievink en Frank Zwetsloot.

Als het gaat om algoritmes is het vaak vergeefs zoeken naar een positief jargon. Weapons of Math Destruction of een voorgestelde ‘meldplicht voor algoritmes’ vormen het vaak alarmistische jargon waarmee algoritmes, waar een grote variëteit achter schuil gaat, in het verdachtenbankje worden gezet. Ze zouden op onnavolgbare wijze geautomatiseerde besluiten nemen, verkiezingen beïnvloeden en totalitaire regimes ondersteunen.

Kansen voor AI

Daar zitten terechte zorgen achter maar het zijn ook mystificaties, die in het debat worden veralgemeniseerd naar een breed scala aan toepassingen. Daarin is veel aandacht voor de complexiteit van algoritmes, maar wordt ook de complexiteit van menselijk en bestuurlijk gedrag onnodig gesimplificeerd. Dat staat een meer realistische verkenning van de kansen en grenzen van het gebruik van algoritmes binnen de overheid in de weg. De Algemene Rekenkamer is nu met een rapport gekomen dat de huidige stand van zaken duidelijk benoemt. Daaruit blijkt dat zij binnen de Rijksoverheid geen algoritmes hebben gevonden waarop de overheid de controle is kwijtgeraakt. De toepassingen waar zij naar keken zijn relatief eenvoudig, vaak goed doordacht, en met diverse waarborgen omkleed. Wellicht is dit juist hét moment om de kansen voor AI binnen de overheid constructiever te bekijken, want met deze nieuwe kijk kan er ook zicht ontstaan op verdergaande en complexere toepassingen.

Wees open over inzet en verscheidenheid

Als we kijken naar de Verenigde Staten dan zien we veel ruimte voor private partijen, met name Big Tech uit eigen land, in de ontwikkeling en inzet van algoritmen. In bijvoorbeeld China is ontwikkeling en inzet veel meer gedreven vanuit de overheid. In Europa is de houding tegenover het gebruik van AI wat defensiever, met veel aandacht voor de menselijke kant. Die krijgt beslag in wetgeving zoals de AVG en (ethische) richtlijnen voor verantwoorde inzet van AI. Dat biedt een goede basis om, met inachtneming van de risico’s, te kijken naar de positieve kansen die AI te bieden heeft.

Wees daarin realistisch in de beperkingen van de data, wat een algoritme vermag, in welke beleidsmatige context en hoe afwegingen rondom proportionaliteit en legitimiteit worden gemaakt. Een algoritmeregister zoals Amsterdam – samen met Helsinki – dat heeft ingesteld zou een basis kunnen vormen om algoritmes uit de mystificatie te halen. Immers, door deze registratie wordt de gemeente uitgedaagd om voor elk algoritme uit te leggen wat de voordelen zijn voor de burger of bestuur en hoe men deze burger beschermt tegen willekeur. Het stelt de overheid in staat te laten zien hoe groot de verscheidenheid is en welke keuzes en waarborgen schuilgaan achter de verschillende toepassingen. Dat is een weg naar een rationelere verhouding tot een instrument dat door de overheid als sleuteltechnologie wordt beschouwd.

Het goede voorbeeld

De Algemene Rekenkamer heeft tientallen algoritmes bekeken en kwam tot de conclusie dat de nu ingezette algoritmes relatief eenvoudig en goed uitlegbaar zijn. Een deel hiervan valt wel onder de noemer van AI, maar het betreft niet de varianten die door hun intelligentie en complexiteit oncontroleerbaar zijn geworden. Dat wil niet zeggen dat alle betrokkenen altijd in staat zijn te doorgronden wat een algoritme doet, en hoe. Een Toetsingskader Algoritmes kan risico’s voor burgers verder indammen, mede doordat het een gesprek forceert tussen verschillende belangen en expertises rondom de inzet van algoritmen. Een register kan aangewend worden om een eenduidige terminologie te organiseren. Het biedt een platform om aan burgers een transparant en begrijpelijk overzicht te geven van de consequenties en kan ook nadere inhoud bieden aan het begrip Human Centred AI dat de EU zo sterk bepleit. Verder kunnen technische ontwikkelingen op het gebied van uitlegbaarheid zicht bieden op hoe een uitkomst tot stand komt.

Experimenteer en waardeer succesvolle AI

Om te voorkomen dat het alleen in theorie goed werkt, is het van belang al deze goede uitgangspunten ook te operationaliseren. Dat vraagt om ruimte om met AI te experimenteren. Natuurlijk moet dit op verantwoorde wijze plaatsvinden, maar alleen met proberen ondervinden we de knelpunten, leren we de grenzen kennen, en maken we richtlijnen en eisen ten aanzien van transparantie en uitlegbaarheid ook ‘actionable’. Dit alles vraagt er echter om dat we algoritmen uit het verdachtenbankje halen en een onderscheid maken tussen verschillende soorten beleidsmatige toepassingen. De nieuwe wet voor het beter combineren van databestanden dat momenteel in de Eerste Kamer ligt (Wet Gegevensverwerking door Samenwerkingsverbanden) biedt aanknopingspunten voor doordachte interdepartementale experimenten. Private partijen kunnen desgewenst betrokken worden in experimenten gericht op leren. Ook wetenschappelijk onderzoek en universitaire datascience centers zijn essentieel voor het ontwikkelen van nieuwe mogelijkheden. De overheid moet zichzelf daarbij aanleren om techniek wat vaker aan te wijzen als een kracht ten goede. Dat vraagt om realisme en heldere keuzes in het eigen gebruik. Door een verantwoorde inrichting van data-gedreven beleid en gebruik van goed begrepen technologie kan zo gerichter beleid tot stand komen – en worden uitgevoerd – met betere resultaten.


Bron: Platform O

Van onze partners

Privacy in perspectief

→ Lees meer

Nieuwsbrief

Blijf op de hoogte van het laatste nieuws over privacy, cybersecurity en data. Abonneer op onze gratis nieuwsbrief.

Abonneer