Implementatiekader ‘Verantwoorde inzet van algoritmen’

In juli jl. werd het concept Implementatiekader ‘Verantwoorde inzet van algoritmen’ [1] bekend gemaakt. In de inleiding staat:

De inzet van algoritmen biedt kansen en mogelijkheden bij de aanpak van maatschappelijke opgaven en de uitvoering van publieke taken. Maar wanneer de overheid een algoritme in een verkeerde context, op een verkeerde manier, of met een verkeerd doel inzet, dan kan de negatieve impact voor burgers groot zijn. Publieke waarden en fundamentele rechten zoals privacy, non-discriminatie, autonomie en menselijke waardigheid kunnen – soms ten opzichte van elkaar – onder druk komen te staan waardoor burgers, maar ook bedrijven, in de knel kunnen komen.

Op bedrijven die overheidstaken uitvoeren, zoals banken, kan dit eveneens worden toegepast. Zij zijn bezig met ‘aanpak van maatschappelijke opgaven en de uitvoering van publieke taken‘. Waarom dit concept Implementatiekader niet ook voor hen geldt, wordt niet duidelijk.

Uitgangspunten bij verantwoord inzetten van algoritmen zijn volgens het concept: publieke waarden, mensenrechten en ethische principes, aldus paragraaf 1.3. Het implementatiekader neemt dit als uitgangspunt en heeft voor de structuur aangesloten op de ethische richtsnoeren die mede ten grondslag liggen aan de AI Verordening (AI Act) [2]. Er wordt verwezen naar [3]:

  • het Toetsingskader Algoritmen van de Algemene Rekenkamer;
  • het normenkader zoals gebruikt door de Auditdienst Rijk;
  • het Impact Assessment Mensenrechten Algoritmen (IAMA);
  • de Handreiking non-discriminatie by design, opgesteld door wetenschappers;
  • de Ethische Richtsnoeren voor betrouwbare AI, opgesteld door een Europese expertgroep;
  • Discriminatie door risicoprofielen, een mensenrechtelijk Toetsingskader, aanbevelingen door het College voor de Rechten van de Mens.

In de bijlage bij het concept wordt meer moois genoemd, zoals De Ethische Data Assistent (DEDA), het Ethics Canvas, de Ethische Impact Assessment, het GO FAIR initiatief, de Bias and Fairness Audit Toolkit en de Maturity assessment DAMA DMBoK.

Zeer boeiend allemaal.

Lees in dit verband het Onderzoeksrapport beheersing algoritmes binnen het Rijk [4], waarin wordt gezegd dat de algoritmische risico’s onvoldoende bekend zijn en beheerst worden. Ook wordt aanbevolen te kiezen voor een gerichte aanpak voor een eenduidige methode waarmee de kwaliteit van het model (nauwkeurigheid en robuustheid) en de data (representativiteit en juistheid/volledigheid/consistentie) onderbouwd kan worden. Volgens de opstellers is de controle op en verantwoording over algoritmes niet helder.
Overigens bevat de managementsamenvatting [5] van dit rapport de bekende illusies die bij het ministerie van Financiën heersen, nl. dat alle risico’s (hier van gebruik algoritmen) kunnen worden onderkend en voorspeld en dat beheersing van die risico’s mogelijk is. Het zou beter zijn als men zou erkennen dat het beter is bepaalde analyses en verwerkingen niet uit te voeren, omdat de risico’s niet kunnen worden vastgesteld en niet kunnen worden beheerst.

 

Theorie en werkelijkheid
De documenten bevatten principes die waarschijnlijk al zeer lang bekend zijn.
Desondanks is er een keten aan misdragingen door zowel overheden als bedrijven. Dat is duidelijk geworden door onder meer SyRI, de Toeslagenaffaire en de berichten over het internetonderzoek naar burgers door de Belastingdienst.

Het is voor mij de vraag of de mens wel toe is aan het gebruik van algoritmen.

 

Noten

[1] Hier te vinden (Tweede Kamer) en ook hier (overheid.nl). In de brief van 7 juli jl. van de staatssecretaris van BZK staat in noot 11: “Het implementatiekader «Verantwoorde inzet van algoritmen» waarvan een eerste versie momenteel ontwikkeld wordt, ziet op de toepassing van algoritmes door de overheid en is een van de instrumenten om hierin heldere kaders te scheppen.“.

[2] De Ethics guidelines for trustworthy AI, vastgesteld door de Europese High-Level Expert Group on AI, 8 april 2019, kijk hier voor de Nederlandstalige versie.

[3] Vindplaatsen:
* Toetsingskader Algoritmen van de Algemene Rekenkamer.
* Impact Assessment Mensenrechten Algoritmen (IAMA) door de Data School, Universiteit van Utrecht.
* Handreiking non-discriminatie by design, een handreiking opgesteld door een groep wetenschappers, onder meer Bart van der Sloot (universiteit Tilburg), in opdracht van het ministerie van BZK. Lees ook het Onderzoeksrapport bekendheid en toepasbaarheid en toegevoegde waarde handreiking nondiscriminatie by design, dat 20 juli jl. openbaar is gemaakt.
* Discriminatie door risicoprofielen, een mensenrechtelijk Toetsingskader, College voor de Rechten van de Mens.
Zie voor de Ethische Richtsnoeren voor betrouwbare AI noot [2].

[4] Onderzoeksrapport beheersing algoritmes binnen het Rijk, Auditdienst Rijk, 8 juni 2022.

[5] Geldt mogelijk ook voor de rest van de tekst.

Onbekend's avatar

About Ellen Timmer

Weblog: https://ellentimmer.com/ ||| Microblog: https://mastodon.nl/@ellent ||| Motto: goede bedoelingen rechtvaardigen geen slechte regels
Dit bericht werd geplaatst in Financieel recht, onder meer Wft, Wtt, Fraude, witwasbestrijding, Wwft, Grondrechten, ICT, privacy, e-commerce en getagd met , , , , , , , , , , , . Maak de permalink favoriet.

1 Response to Implementatiekader ‘Verantwoorde inzet van algoritmen’

  1. r grootveld's avatar r grootveld schreef:

    Wat algoritmen. Een hoop ambtelijke blabla. Indrukwekkend op papier. Maar iedereen kan op zijn vingers natellen dat van al die hooggestemde plannen niets terecht gaat komen. Als het de overheid niet is, dan gaat het bedrijfsleven er wel tegenaan. Het grote publiek wordt vast rijp gemaakt. Heeft men de social media al onder controle?
    Als men AI (wat dus helemaal geen AI is omdat intelligentie er niets mee te maken heeft) zou gebruiken waar het echt zin heeft dan is al die discussie overbodig.

Geef een reactie op r grootveld Reactie annuleren