Moeten we Kunstmatige Intelligentie in strafrechtzaken verbieden?

doorGigi Gil

Moeten we Kunstmatige Intelligentie in strafrechtzaken verbieden?

Dit is het laatste deel in de serie “Kunstmatige Intelligentie in Debatteren”. Lees hier deel 1 en deel 2!

In de vorige twee artikelen heb je kunnen lezen wat er wordt bedoeld als er wordt gesproken van kunstmatige intelligentie (AI). Mike heeft het lastige werk gedaan. In dit artikel is aan mij de eer om een voorbeeld te geven van de toepassing van deze kennis bij debatteren, aan de hand van de volgende stelling:

Deze Kamer verbiedt het gebruik van statistische risicobeoordelingen voor het bepalen van de strafmaat in strafrechtzaken

De crux van dit debat zal zich waarschijnlijk afspelen rond de karakterisering van het algoritme. Als het een perfecte en eerlijke voorspelling geeft, is het immers waarschijnlijk grotendeels een goed idee. De propositie wil echter een algoritme schetsen dat totaal geen correcte voorspellingen geeft of ontzettend onethisch is.

De propositie kan uitleggen dat AI algoritmes trainen op aangeleverde data, zoals Mike uitlegde. Een algoritme op basis van bevooroordeelde data zal bevooroordeelde resultaten produceren. Veel van deze algoritmes nemen variabelen mee zoals opleidingsniveau, aantal arrestaties of gender. Die factoren zijn zowel onveranderlijk als oneerlijk; op basis daarvan zou een individu niet mogen worden afgerekend. De data die voorspellend is voor recidivisme is bijvoorbeeld oneerlijk om mee te wegen omdat die factoren vaak correleren met privilege.

De oppositie schetst hiertegenover een beeld van wat er in de plaats van deze algoritmes wordt gedaan: het scenario waarin de rechter zelf een inschatting maakt. De context waarin deze algoritmes worden gebruikt is er één waarin de maatschappelijke druk ligt op straffen en niet op rehabiliteren. De inschatting van rechters zou waarschijnlijk racistischer zijn, gegeven onder andere de geprivilegieerde achtergrond van veel rechters en het feit dat zij inschattingen maken op basis van ervaringen met het reeds bestaande racistisch rechtssysteem.

Na het debat over het algoritme zelf, zijn er argumenten te maken over de “checks and balances” die bestaan in ieder respectievelijk systeem. De propositie kan hier uitleggen dat de rechters verantwoordelijkheid kunnen afschuiven op de ‘black box’ van algoritmes. Dat maakt het rechtssysteem erg moeilijk te veranderen, gegeven dat er geen verantwoording hoeft te worden afgelegd. De oppositie zegt dat verantwoording beter zou kunnen, omdat het algoritme gedefinieerde variabelen meeneemt en daarover discussie kan bestaan. Er kan maatschappelijke kritiek zijn over het feit dat bijvoorbeeld het opleidingsniveau wordt meegenomen, waarna die factor wellicht uit de berekening gehaald kan worden. Rechters zijn in deze discussie niet defensief omdat het algoritme niet door hen ontworpen is en staan zij dus meer open voor verandering.

Bron coverafbeelding: https://medium.com/datadriveninvestor/what-is-artificial-intelligence-eeb863bf3fee

Facebook Twitter Linkedin Email

Over de auteur

Gigi Gil contributor

Gigi is een debater van de Leiden Debating Union. Ze was de training and development officer van de vereniging in 2013-2014. Ze diende ook als algemeen bestuurslid (met een focus op training and development) van de Nederlandse Debatbond in 2019-2021.