Tweedemonitor / Kamervraag / Het gebruik van discriminerende algoritmes en massasurveillance door de politie.



Het gebruik van discriminerende algoritmes en massasurveillance door de politie.

Keywords:
Zaaknummer: 2020Z17696

2020Z17696

(ingezonden 1 oktober 2020)

Vragen van de leden Van Beukering-Huijbregts en Verhoeven (beiden D66) aan de ministers van Justitie en Veiligheid en voor Rechtsbescherming over het gebruik van discriminerende algoritmes en massasurveillance door de politie.

  1. Bent u bekend met het bericht ‘Nederland: maak een einde aan gevaarlijke politie-experimenten met massasurveillance’? 1)
  2. Hoeveel projecten zijn er op dit moment waarbij de politie gebruik maakt van 'predictive policing'? Op welke locaties lopen deze projecten? Welke systemen worden in elk van deze projecten gebruikt?
  3. Hoe toetst de politie projecten waarbij surveillance data verzameld wordt aan eisen op het gebied van privacy?
  4. Hoe wordt voorkomen dat bestaande vooroordelen doorwerken in 'predictive policing' systemen en op die manier leiden tot discriminatie?
  5. Hoe duidt u het oordeel van Amnesty International dat projecten als het Sensing-project in Roermond de rechten op privacy, databescherming en non-discriminatie schenden?
  6. Hoe duidt u de analyse van Amnesty International die uiteenzet hoe het Sensing-project door het ontwerp (‘discrimination by design’) automatisch leidt tot etnisch profileren? Kunt u daarbij bijvoorbeeld in gaan op het gegeven dat de politie in de definitie van ‘mobiel banditisme’ alleen bepaalde nationaliteiten meeneemt?
  7. Hoe verhoudt het staande houden van voertuigen op basis van een algoritmisch model zich tot het handelingskader proactief controleren, dat stelt dat proactieve controles plaats dienen te vinden op basis van een redelijk vermoeden van schuld?
  8. Heeft de politie een kader aan de hand waarvan de bewezen positieve effecten van nieuwe technologieën worden afgewogen tegen de mogelijke negatieve maatschappelijke effecten, bijvoorbeeld op het gebied van privacy en discriminatie? Zo ja, tot welke afweging heeft dit geleid bij de inzet van 'predictive policing'? Zo nee, op basis waarvan wordt dan een afweging gemaakt om nieuwe technologieën te implementeren?
  9. Bent u bereid de aanbeveling van Amnesty International over te nemen om het Sensing-project stop te zetten en de verzamelde data te vernietigen? Zo nee, waarom niet?
  10. Welke andere projecten worden uitgevoerd door de overheid waarbij geëxperimenteerd wordt met kunstmatige intelligentie? Bij welk van die projecten wordt gehandeld op basis van voorspellingen die gedaan worden door een algoritme? Welke wettelijke kaders dienen daarbij als basis en wie ziet toe op de naleving daarvan?
  11. Hoe staat het met de uitwerking van de waarborgen tegen risico’s van data-analyses door de overheid, zoals aangekondigd in uw brief van 8 oktober 2019? Hoe bent u van plan toezicht te houden op lopende experimenten met voorspellende algoritmes totdat de richtlijnen voor de gehele Rijksoverheid zijn geïmplementeerd die privacy en non-discriminatie waarborgen? 2)

1) Amnesty.nl, 29 september 2020, "Nederland: maak een einde aan gevaarlijke politie-experimenten met massasurveillance", https://www.amnesty.nl/actueel/nederland-maak-een-einde-aan-gevaarlijke-politie-experimenten-met-massasurveillance

2) Kamerstuk 26643, nr. 641


Gerelateerd

Het bericht dat algoritmes van de gemeente Rotterdam kunnen leiden tot vooringenomen uitkomsten

Het gebruik van discriminerende algoritmes en massasurveillance door de politie.

Het bericht ‘Algoritme voorspelt wie fraude pleegt bij bijstandsuitkering’

Moslimfobie en intimidatie bij de politie

Gemeenten die mogelijk discriminerende algoritmen gebruiken

Herindelingen in het algemeen en de herindeling Groningen, Haren, Ten Boer in het bijzonder.

Het bericht ‘Politie en COA 'overtreden privacywet' met delen persoonlijke data asielzoekers’

Het diversiteitsbeleid bij de politie

© 2017-2021 Tweedemonitor

Contact: Info [at] tweedemonitor.nl