Menu

Filter op
content
PONT Data&Privacy

0

Vijf privacy issues in Chatbots en AI technologie

AI bevat enorme hoeveelheden (persoons)gegevens. Er is een groei in het gebruik van chatbots en kunstmatige intelligentie (AI) door bedrijven die geautomatiseerde taken uitvoeren die vroeger door mensen werden uitgevoerd. Enkele voorbeelden van AI-toepassingen zijn: beeld-, spraak- of gezichtsherkenning, automatische klant-communicatie (chatbots) en geautomatiseerde besluitvorming.AI-applicaties moeten worden “gevoed” en “getraind” met enorme hoeveelheden (persoons)gegevens, wat privacy-vragen oproept. Deze blog gaat in op de belangrijkste vraag: hoe verhoudt AI zich tot de privacywet?

18 februari 2019

Hoe ‘intelligent’ is AI?
Ondanks de algemene perceptie dat AI-algoritmen op de een of andere manier ‘neutraal’ en ‘objectief’ zijn, kunnen ze bestaande, onbekende vooroordelen of onvolledigheden in gegevens vaak reproduceren en zelfs vergroten.

De belangrijkste oorzaak is dat AI-applicaties afhankelijk zijn van de invoer van zeer grote hoeveelheden data van goede kwaliteit om een ​​heel specifiek beeld of patroon te kunnen ‘herkennen’.

Een voorbeeld uit de praktijk:
Een bepaald beeldherkenning-tool van een supermarkt vereiste de invoer van ten minste 20.000.000 afbeeldingen om slechts 20.000 supermarktproducten te kunnen herkennen. En alsnog zaten er fouten in: alles dat een vierkante vorm had, werd ‘gezien’ als een zak borrelnoten, zelfs als het een doos ontbijtgranen was. Als het beeld van een product enigszins afwijkend was, vanwege een kleine sticker of als het product een iets andere vorm had, kon de AI-tool het product helemaal niet herkennen.

Niemand zal wakker liggen van een verkeerd productherkenning in een supermarkt. Maar wat als AI wordt gebruikt om belangrijke beslissingen te nemen over mensen, zoals bij werving en selectie? In dat geval kan een kleine fout in een AI-tool een groot probleem zijn.

Voorbeelden waarin AI en Chatbots faalden
Er zijn situaties geweest waarin het gebruik van AI tot verrassende en negatieve uitkomsten heeft geleid. Hieronder volgen drie voorbeelden waarin het gebruik van AI (onbewust) leidde tot discriminatie:

Voorbeeld 1: AI-schoonheidswedstrijd pakte lelijk uit
De eerste internationale schoonheidswedstrijd beoordeeld door “machines”, Beauty.AI, moest schoonheid op basis van objectieve factoren bepalen, zoals gezichtssymmetrie en rimpels, om de meest aantrekkelijke deelnemers te identificeren. Nadat meer dan 6000 mensen uit meer dan 100 landen foto’s hadden ingestuurd, selecteerden de “robotjury’s” de winnaars. De makers waren verrast om te zien dat er één link was tussen de winnaars: de robots hielden niet van mensen met een donkere huid. Dit ondanks het feit dat veel mensen met diverse huidskleuren foto’s hadden ingestuurd.

Voorbeeld 2: Chatbot Tay was een rebelse puber
Microsoft bracht de “millennial” chatbot Tay in 2016 uit en de AI achter de chatbot is ontworpen om slimmer te worden, hoe meer millennials zich bezighouden met de AI-chatbot. Maar het begon snel racistische taal te gebruiken en promootte zelfs neo-nazi-opvattingen op Twitter.

Voorbeeld 3: AI-recruiter selecteerde geen vrouwen
Amazon bouwde een werving- en selectie-tool om de cv’s van sollicitanten te beoordelen, met als doel het zoeken naar toptalenten te automatiseren. Amazon besefte echter dat zijn AI-recruiter kandidaten niet op een gender-neutrale manier beoordeelde. Omdat de meeste cv’s afkomstig waren van mannen, leerde Amazon’s systeem zichzelf dat mannelijke kandidaten beter waren en ‘bestrafte’ cv’s met het woord ‘vrouw’ erin.

Privacy-aspecten om rekening mee te houden bij AI
Wanneer AI wordt gebruikt om mensen te identificeren of om beslissingen te nemen over mensen, dan vereist dit de invoer van grote hoeveelheden persoonsgegevens, wat vanuit het oogpunt van de privacywet (AVG) problematisch kan zijn, en wel om de volgende redenen:

  • Het verzamelen van grote hoeveelheden persoonsgegevens is in strijd met het beginsel van ‘dataminimalisatie‘ van de Europese Algemene Verordening Gegevensbescherming (AVG), dat vereist dat de hoeveelheid persoonsgegevens moet worden beperkt tot wat strikt noodzakelijk is;

  • Het combineren en analyseren van grote sets aan persoonsgegevens om nieuwe inzichten te verkrijgen, is in strijd met het AVG-principe van ‘doelbinding‘. Doelbinding betekent dat persoonsgegevens alleen mogen worden gebruikt voor vooraf gedefinieerde, specifieke doeleinden en niet voor andere doeleinden;

  • Bepaalde gevoelige (bijzondere) persoonsgegevens, zoals gegevens over iemands etniciteit, gezondheid, religie of criminele achtergrond, mogen niet worden verzameld tenzij een wettelijke uitzondering van toepassing is. Er zijn maar weinig wettelijke uitzonderingen onder de AVG om dergelijke gevoelige gegevens te verwerken.

  • De AVG vereist dat de persoonsgegevens op een transparante en accurate manier worden verwerkt. Wanneer AI-systemen echter worden ‘getraind’ op basis van door mensen gegenereerde gegevens, kunnen deze gegevens (onbewust) vooroordelen bevatten.

  • Personen hebben het recht om bezwaar te maken tegen het gebruik van hun persoonsgegevens voor geautomatiseerde besluitvorming (profilering) en hebben het recht correctie of verwijdering van hun persoonsgegevens te vragen.

Voorkom deze privacy-risico’s met Privacy by Design
Er zijn pro-actieve manieren waarop AI-algoritmen kunnen worden aangepast, om de vooroordelen te corrigeren. Dit kan bijvoorbeeld door het verbeteren van invoergegevens of het implementeren van filters, om ervoor te zorgen dat mensen van verschillende etniciteiten of geslachten een gelijke behandeling krijgen.

Een manier om privacy-risico’s bij AI en Chatbots te voorkomen, is het toepassen van het principe ‘Privacy by Design‘, al vanaf de ontwerpfase van je AI-tool of Chatbot, tot aan de invoering, het gebruik en de uitfasering ervan.

Dit artikel is ook te vinden in het dossier AVG

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.