Joop

Racisme bestrijd je niet met discriminatie

  •  
20-11-2019
  •  
leestijd 2 minuten
  •  
cctv

© cc-foto: Stafford Green

Gezichtsherkenning benadeelt mensen van kleur.
In 1Vandaag pleitte Marjan Olffers, hoogleraar Sport & Recht, voor de introductie van gezichtsherkenningssystemen in voetbalstadions. Aanleiding zijn de racistische leuzen die geroepen werden bij de wedstrijd FC Den Bosch – Excelsior.
Er is geen plaats voor racisme of discriminatie. Niet in de samenleving, niet op straat en niet in de stadions. Dat racisme moet worden bestreden staat dus buiten kijf. Maar racisme los je niet op met discriminerende technologie.
Gezichtsherkenningstechnologie is zulke technologie. Uit onderzoek van het Massachusetts Institute of Technology en de Stanford University naar verschillende gezichtsherkenningssystemen blijkt dat het foutpercentage bij vrouwen van kleur varieert van 20,8% tot 46,8%, terwijl deze bij witte mannen niet groter is dan 0,8%. Dat is een enorm groot verschil.
Dit verschil zorgt ervoor dat mensen van kleur een groter risico lopen om onterecht door het systeem geïdentificeerd te worden als de verdachte die in beeld is. Het gebruik van deze technologie legt het risico op fouten dus juist onevenredig neer bij mensen van kleur. Daarom is het geen goed middel in de strijd tegen racisme.
Dat dit verschil in foutpercentage zo groot is komt doordat de technologie is getraind op basis van datasets met vooral witte mannen. In een poging van Google om deze tekortkoming op te lossen werden uitzendkrachten op pad gestuurd om zoveel mogelijk scans van gezichten te verzamelen.
Zij werden geïnstrueerd zich vooral te richten op mensen van kleur, mensen die makkelijker over te halen zouden zijn om mee te doen voor een 5 dollar cadeaukaart en mensen met weinig toegang tot de media, waaronder dakloze mensen. Het is onethisch en onacceptabel om technologische bias te bestrijden door kwetsbare groepen te targeten, en deze aanpak lost dan ook het discriminatieprobleem niet op.
Maar zelfs als deze bias uit de technologie gehaald wordt, zou gezichtsherkenningstechnologie niet ingezet moeten worden. We moeten ons ervan bewust zijn dat de risico’s en de inbreuk op onze rechten en vrijheden die gepaard gaan met de inzet van dergelijke surveillancetechnologie ook onevenredig over de samenleving zijn verdeeld. Doordat kwetsbare groepen hier meer last van hebben, zal de inzet van dergelijke technologie geen oplossing vormen voor het racismeprobleem.
De boodschap moge duidelijk zijn: racisme los je niet op met discriminerende technologie.
Delen:

Praat mee

Heb je een vraag, suggestie of wil je gewoon iets kwijt? Dat kan hier. Lees onze spelregels.

avatar

Reacties (36)

Greendutch
Greendutch21 nov. 2019 - 10:21

inderdaad lost iets als gezichtsherkenning niets op maar het is alleen een controlemiddel van de machthebbers. zoals vroeger de fabrieksdirecteur bijv ook voor woningen en de bijbehorende winkel en cafe zorgde waar 'zijn 'geld werd uitgegeven en hij tegelijkertijd wist wat er allemaal omging in de gemeenschap en invloed van buitenaf, die mogelijk contraproductief kon zijn, op afstand werd gehouden. wat Xi sin Ping nu doet is totaal abject. ik vind zelfs alle camera 's die hier in NL hangen al teveel van het goede. (maar ik begrijp goed dat als er vreselijke dingen gebeuren het handig is om de beelden te hebben) ik vind dat ik niet bekeken hoef te worden omdat anderen iets fout doen. er moet wel iets veranderen aan gedrag en houding van extreem rechts waar toch deze uitingen vandaan komen. het filmpje over het Deense project uitgezonden door DWDD is veelzeggend en ook Human heeft afgelopen jaar zoiets gedaan maar dat wordt op zondagmiddag uitgezonden tegenover sport en als het goed weer is dat mensen naar strand en zwembad gaan dus dat heeft helaas niet veel effect gehad. in podcast de dag https://www.nporadio1.nl/podcasts/de-dag/122543-461-hoe-zwarte-piet-een-plaats-op-de-voetbaltribune-kreeg heeft een van de gasten aan de telefoon een verklaring voor de groep in den Bosch alsof het meer kattenkwaad zou zijn om de tegenpartij uit balans te brengen maar dat er niet van een echt bewust racisme sprake zou zijn. zoals altijd begint alles met opvoeding, informatie, leren, voorlichting maar een spel waarbij mensen gehergroepeerd worden naar diverse uitgangspunten lijkt mij een goede oefening.

Jan Lubbelinkhof
Jan Lubbelinkhof21 nov. 2019 - 8:44

Wat een omhaal van woorden, wat een lullekoek. Zeg dan gewoon dat je er tegen bent en gebruik valide argumenten. Dat het systeem bij 0,8% van de blanke mannen het goed heeft lijkt mij nu juist een argument om het in dit geval wel toe te passen. Hoeveel Surinaamse of Ghanese vrouwen (als voorbeeld) zullen er nu racistische zaken roepen naar een donkere speler?

2 Reacties
groeneveld1
groeneveld121 nov. 2019 - 11:04

Meer dan je denkt Jan en racisme is niet alleen een blank/wit verschijnsel.

Jan Lubbelinkhof
Jan Lubbelinkhof22 nov. 2019 - 13:19

Natuurlijk is racisme niet een exclusief blank verschijnsel. Mijn schoonfamilie is Surinaams, ik ken de taal en de gemeenschap een beetje en het racisme wat ik daar (en op Surinaamse fora ) zie (o.a. over hindoes en Hollanders) lees is erger dan ik op Nederlandse sites zie. Het ging me nu exclusief om deze situatie.

Perspectief 5.0
Perspectief 5.021 nov. 2019 - 7:05

Een donkere huid haalt meer diepte uit het gezicht, daar kan software niks aan doen. Om dezelfde reden is zwarte piet minder snel te herkennen dan bijvoorbeeld rode of blauwe piet.

3 Reacties
LaBou
LaBou 21 nov. 2019 - 11:16

Ik heb in mijn jonge jaren auto's gespoten en ik kan je verzekeren dat zwart het moeilijkste goed te spuiten is omdat je er alles in ziet.

Perspectief 5.0
Perspectief 5.021 nov. 2019 - 14:55

Dat maakt mijn argument niet minder waar.

LaBou
LaBou 21 nov. 2019 - 17:28

Ik vrees van wel. Je zult met andere argumenten moeten komen.

EricDonkaew
EricDonkaew21 nov. 2019 - 2:47

Het is een achterhoedegevecht. Het is tegenwoordig een en al gezichtsherkenning. Ga maar eens door de paspoortcontrole op Schiphol. Of op vliegvelden in praktisch alle andere landen van de wereld. Als computergestuurde gezichtsherkenning leidt tot het oppakken van boeven en terroristen, dan heb ik daar geen bezwaar tegen. En als ik per ongeluk word opgepakt vanwege een foute gezichtsherkenning, dan praat ik me daar wel uit. Hoop ik.

Thuru
Thuru21 nov. 2019 - 2:16

Ik vermoed dat gezichtsverlies herkenning er ooit wel doorheen komt ongeacht of dit goed of slecht is. Uiteraard zou alle kinderziektes eruit moeten voordat het er komt. Maar dan nog is het de vraag is dit wenselijk. Ik denk van niet.

tempest
tempest21 nov. 2019 - 0:21

Beetje veel buzz-woorden aan elkaar en een erg dubieuze redenatie. Maar ben het met de conclusie wel eens: zo’n surveillance-systeem moeten we niet willen opzetten. Als ooit een echt een kwaad-willende overheid aan de macht komt, dan zijn de gevolgen niet te overzien. Lijkt me ook niet echt nodig om gezichtsherkenning toe te passen. Gewoon iedereen die een stadion in gaat zijn/haar id-kaart laten zien. Bij zwembaden wordt een soortgelijk systeem gebruikt. Werkt prima om een groep rotzooi-schoppers op een zwarte lijst buiten te houden.

Komtgoed
Komtgoed20 nov. 2019 - 21:50

Voetbalsupporters mogen graag een beetje jennen en ondeugend doen. Dat is hun dingetje. Meestal wordt er even om gelachen en dan gaan we weer de jongens aanmoedigen. Scheidsrechters worden ook vaak doelwit van spreekkoren of een speler die niet goed presteert. En dan wordt er ook geen uitzondering gemaakt voor de donkere speler. Je kunt er notie van nemen of langs je af laten glijden. Ik weet dat dit antwoord van mij niet geaccepteerd wordt door de zeer principiële jooper maar wat er nu wordt gebreid rond dat onderwerp slaat werkelijk nergens meer op. Het meest gênante is nu gebeurd. We gaan er serieus op in. Wat een toestand voor onze donkere medemens die dacht dat hij in Nederland bevrijd was en gelijk was. Dat hij nu door zijn beschermers weer geconfronteerd wordt met zijn niet blank zijn. We zijn teruggevallen in onze ontwikkeling door grapjassen in een stadion serieus te nemen.

1 Reactie
Sam V
Sam V21 nov. 2019 - 10:20

@Komtgoed Als uitgangspunt ben ik het helemaal met je eens. Voetbalsupporters zoeken elk kenmerk of actualiteit op om de tegenstander of de scheidsrechter indien die volgens hen partijdig is, te ontregelen. Genoeg voorbeelden tegen (al dan niet) homoseksuele scheidsrechters, kwetsende spreekkoren tegen spelers waarvan privé iets is gebeurd of als ze een mooie vrouw zien bij de toeschouwers van de andere partij. Het gaat vaak (te) ver maar wordt er niet tegen opgetreden omdat het er een beetje bijhoort. Een andere huidskleur is ook zo’n kenmerk waar graag op ontregeld wordt. Is het per se racisme? Nee. Maar daar ligt het lastige. Het is het wel kwetsend bedoeld en dat het door de betreffende speler zo wordt opgevat, is wel begrijpelijk. Dus ja, ik ben het er mee eens dat we soms meer belang hechten aan deze spreekkoren dan de voetbalsupporters soms bedoelen, maar omdat het wel kwetsend bedoeld is, moet het aangepakt worden. Daar zit voor mij ook het grote verschil met ZP. Niet kwetsend bedoeld, daarom wat mij betreft hoeft dat niet te veranderen. Maar als we dat wel doen, ook geen probleem mee.

Phantom3
Phantom320 nov. 2019 - 20:57

"Uit onderzoek van het Massachusetts Institute of Technology en de Stanford University naar verschillende gezichtsherkenningssystemen blijkt dat het foutpercentage bij vrouwen van kleur varieert van 20,8% tot 46,8%, terwijl deze bij witte mannen niet groter is dan 0,8%. Dat is een enorm groot verschil." Als het foutpercentage bij blanke mannen zo laag is lijkt me dat juist een argument om het systeem wel te gebruiken. Ik kan me niet aan de indruk onttrekken dat er nauwelijks donkere vrouwen tussen de voetbalhooligans racistische opmerkingen maken naar donkere voetballers.

1 Reactie
LaBou
LaBou 21 nov. 2019 - 17:31

Ik kan me dan weer niet aan de indruk ontrekken dat gezichtsherkenningssystemen niet alleen maar in voetbalstadions gebruikt gaan worden om hooligans op te sporen die racistische kreten schreeuwen.

pietjansen
pietjansen20 nov. 2019 - 20:23

"Dit verschil zorgt ervoor dat mensen van kleur een groter risico lopen om onterecht door het systeem geïdentificeerd te worden als de verdachte die in beeld is. Het gebruik van deze technologie legt het risico op fouten dus juist onevenredig neer bij mensen van kleur." Ik begrijp de conclusie die u trekt echt niet, maar ik ben dan ook geen "onderzoeker". Je kunt namelijk net zo goed dit zeggen: "Dit verschil zorgt ervoor dat mensen van kleur een kleiner risico lopen om terecht door het systeem geïdentificeerd te worden als de verdachte die in beeld is." Kortom, het systeem biedt gekleurde mensen dus ook voordelen. Zoals u terecht stelt: ze worden veelal niet herkent en ontlopen daardoor vaak hun straf.

1 Reactie
And it's gone
And it's gone21 nov. 2019 - 2:03

@Pietjansen. Precies wat ik dacht. Juist doordat personen niet herkend worden, zullen ze niet aangemerkt worden als verdacht..... en ja ik weet er iets meer vanaf dan de gemiddelde Nler (dagelijks werk ik met data en text analytics en gezichtsherkenning algoritmes) Voor de auteur heb ik een tip..... sla eens een statistiekboek open en zoek naar type 1 en type 2 fouten. Ga daarna een onderzoek lezen van MIT en trek daarna een conclusie. Het huidige artikel slaat de plank volledig mis.

TigressApril
TigressApril20 nov. 2019 - 20:07

Tsja je hebt toch een grotere representatievere dataset nodig als je iedereen van zijn of haar vrijheid wil beroven. Wij 'witte' mannen zijn al de pineut weg privacy. Europa gaat gewoon China achterna met de controle uitbreiden over de burger. Gewoon niet meedoen met privacy schendingen, trek je 5G apparaten maar vast uit elkaar want deze IOT terreur zal vol privacy schendende afluister apparatuur zitten. Er zijn mensen die zich zorgen maken over de niet ioniserende straling binnen de 5G banden, het echte gevaar is de privacy shoah.

1 Reactie
Jan Lubbelinkhof
Jan Lubbelinkhof21 nov. 2019 - 8:39

Zou u het erg vinden de shoah enkel te gebruiken als de shoah bedoeld wordt. Door dit woord voor andere zaken te gebruiken treed er woordinflatie op, iets wat antisemieten graag zouden willen maar ik hoop en vertrouw dat dat niet uw bedoeling is.

MountEverest
MountEverest20 nov. 2019 - 20:01

Gezichtsherkenning en allerlei andere algoritmen zijn een bedreiging voor de vrijheid. Je moet er niet aan denken dat er een autoritair bewind aan de macht komt, i.t.t. WOII wordt iedereen de hele gedag gecontroleerd en bespioneerd. Op elk moment van de dag is bekend waar je uithangt. De enige mogelijkheid om nog enigszins buitenbeeld te blijven is het vermijden van alle electronica en het internet. Maar de ontwikkelingen zijn niet te stoppen. Dit is de grootste bedreiging op middellange termijn.

1 Reactie
Tom7
Tom721 nov. 2019 - 8:18

@Mount Everest "Je moet er niet aan denken dat er een autoritair bewind aan de macht komt" Beste dat is al, afgaande op je reacties hier en daar heb je er misschien nog niets van meegekregen, of je wil het niet zien. Het griezelige is dat de meeste stappen naar die algehele controle op een basis van vrijwilligheid gebeurt, zoals door bepaalde mensen jaren geleden al voorspeld, overigens. (maar dat waren gekkies natuurlijk) Lees hier maar in meerdere reacties, men duikt weg in kritiek op de meetmethodes, niet op wat gaande is en hoe dat tot stand is gekomen. U kunt bijvoorbeeld eens bij een verzekeraar gaan kijken en ook ééns even doorvragen, wat ze allemaal van je weten zonder dat je daar expliciet toestemming voor hebt gegeven, of wat je vrijwillig prijsgeeft. https://www.asr.nl/vitality/particulier Wat denkt U, is dat nu werkelijk om U een beter leven te geven en geld te laten besparen. En als dat zo is is dat dan niet een gigantische vorm van discriminatie, want hoe moeten hulpbehoevenden, voedsel bankbezoekers of chronisch zieken hier profijt uit halen, in tegenstelling van mensen met een reguliere baan en een middeninkomen, zij worden dan toch beboet als je het effe omdraait. Nu staat er weer een stuk over het bespieden door werkgevers, is ook al jaren aan de gang, wat denkt U als de ontslagregels binnenkort versoepeld worden, zal dan niet gebruik gemaakt worden van bepaalde prive info? Het enige wat mij blijft verbazen, is dat er zoveel mensen verbaasd zijn wanneer ze erachter komen dat ze opgesloten blijken te zitten als een vis in een vissenkom. No Surprises- Radiohead- OK computer https://www.youtube.com/watch?v=u5CVsCnxyXg

JasDon
JasDon20 nov. 2019 - 19:32

Geen sterke argumentatie. "Dit verschil zorgt ervoor dat mensen van kleur een groter risico lopen om onterecht door het systeem geïdentificeerd te worden als de verdachte die in beeld is. " Leuk, maar de groep mensen die in het vak staat is te herleiden aan hun aanwezigheid, gekochte tickets aldaar. Zelfs al zit je er in eerste instantie naast: het is op basis van camerabeelden eenvoudig te controleren door een mens. Daarnaast zijn vrouwen zelden het probleem, dus ook hier een vergezocht probleem. Indien je mensen op straat gaat proberen te herleiden worden de problemen uit de geciteerde onderzoeken een beetje reëel.

Jerry Bidet
Jerry Bidet20 nov. 2019 - 18:51

De reden waarom dit ingevoerd zou worden, als het gebeurt, is in ieder geval niet racisme. Meer iets met totale controle. 1984.

michellekepen
michellekepen20 nov. 2019 - 17:25

"De boodschap moge duidelijk zijn: racisme los je niet op met discriminerende technologie." Eerst een omstandig verhaal dat deze (nieuwe) technologie discriminerend is. Als er vervolgens pogingen worden gedaan om deze technologie te vrijwaren van discriminatie, dan zijn deze pogingen ook 'onethisch en onacceptabel'. Maar dan komt de slotconclusie, het voorgaande eigenlijk terzijde schuivend, namelijk dat ook een goed werkende gezichtsherkenning niet toegepast mag worden. Want de kwestbare groepen zullen er meer last van hebben. Als dit de sterkste argumenten van de tegenstanders zijn, dan wordt ik eerlijk gezegd niet overtuigd.

3 Reacties
Sam V
Sam V20 nov. 2019 - 18:45

Ik had hetzelfde gevoel bij die één na laatste alinea: “ Maar zelfs als deze bias uit de technologie gehaald wordt, zou gezichtsherkenningstechnologie niet ingezet moeten worden. ... Doordat kwetsbare groepen hier meer last van hebben, zal de inzet van dergelijke technologie geen oplossing vormen voor het racismeprobleem.” Oftewel zelfs zonder bias nog racistisch. Waarom dan???

Sam V
Sam V20 nov. 2019 - 18:46

Ik bedoel natuurlijk discriminerend in plaats van racistisch.

michellekepen
michellekepen20 nov. 2019 - 20:48

Sam V, Op mij komt het als volgt over: Bits of Freedom is eenvoudigweg tegen elk een dergelijk ontwikkeling of introductie. Ter rechtvaardiging van deze afkeer worden er allerlei vergezochte redenen bijgezocht. Bias? Maar als de bias verholpen wordt, dan vindt dat weer niet op de jusite wijze plaats. Maar dan blijkt een juiste wijze eigenljk nooit te bestaan, want kwetsbare groepen zullen per definitie altijd de pineut zij, aldus de auteur. Jammer dat écht principiële argumenten achterwege blijven. Want die bestaaan natuurlijk wel degelijk. Maar die zijn blijkbaar niet aan ons besteed. Of die moet ik hier tussen de reacties lezen.

[verwijderd]
[verwijderd]20 nov. 2019 - 16:45

--- Dit bericht is verwijderd —

4 Reacties
JanKlaasen
JanKlaasen20 nov. 2019 - 19:38

Het staat mensen met een donkere huidskleur vrij om gezichtsherkenningssoftware te programmeren.

Henk Tuinman
Henk Tuinman20 nov. 2019 - 19:40

Als het in Afrika ontwikkeld zou zijn, zou de volgens jou varkensroze mens ook de hoofdmoot zijn? Wat denk je van gezichtsherkenning in China, daar zullen ze vast ook eerst naar chinese kenmerken hebben gekeken.

Peterrr2
Peterrr221 nov. 2019 - 21:56

@Z_edje, verspilde energie. @Ikzelf heeft nog nooit op deze site toegegeven dat hij fout zat, of iets verkeerd beweerd heeft en dat gaat hij ook nu niet doen.

Peterrr2
Peterrr223 nov. 2019 - 12:33

Ikzelf 22 november 2019 at 17:17 Ik herhaal: als jullie ooit in staat zijn om een inhoudelijke discussie te voeren, dan mogen jullie je melden. Goh... wat lief van je.

Thuiszitter
Thuiszitter20 nov. 2019 - 16:23

Privacy van de burgers dient gewaarborgd te worden. Praktijken als in China moet je niet willen, daar werkt de staat heel veel met gezichtsherkenning en is een belangrijk hulpmiddel om hun burgers in dwang te houden. Deze technologie geheel niet gebruiken in opsporing hoeft nou ook weer niet, bij ernstige misdrijven bijvoorbeeld.

1 Reactie
TigressApril
TigressApril20 nov. 2019 - 20:09

Iedereen scannen en dan zeggen ja we doen er niks mee en verwijderen het meteen is een super slecht idee. De goede moeten nooit inleveren voor de kwade. Laat die boef maar pakken door agent Piet.

Henk Tuinman
Henk Tuinman20 nov. 2019 - 16:07

Het onderzoek is uitgevoerd in april/mei 2017. De ontwikkelingen in AI gaan zeer snel. Nieuw onderzoek zal zeker andere resultaten geven. Inmiddels kunnen we al aan de kassa betalen met gezichtsherkenning. De oude software gaf al een hogere error bij vrouwen dan bij mannen ongeacht de classificatie van huidskleur. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf Uiteraard ga je eerst testen met beschikbare data en daarna de data sets uitbreiden afhankelijk van de resultaten. Dat er daklozen getarget werden is lekker makkelijk. De kans dat ze meewerken is groter en ze stellen waarschijnlijk minder vragen. Aan de andere kant, loop je niet eerder tegen de lamp als je gezicht een grotere kans heeft herkend te worden. Wie wordt hier gediscrimineerd? De licht man of donkere vrouw.

Peterrr2
Peterrr220 nov. 2019 - 15:51

Uit onderzoek van het Massachusetts Institute of Technology en de Stanford University naar verschillende gezichtsherkenningssystemen blijkt dat het foutpercentage bij vrouwen van kleur varieert van 20,8% tot 46,8%, terwijl deze bij witte mannen niet groter is dan 0,8%. Dat is een enorm groot verschil. Dit verschil zorgt ervoor dat mensen van kleur een groter risico lopen om onterecht door het systeem geïdentificeerd te worden als de verdachte die in beeld is. Als dit klopt, dan zou ik dit in stadions juist wel invoeren, want dat past precies bij de 'doelgroep'.... Ik denk niet er veel vrouwen, laat staan zij die niet wit van kleur zijn, meegezongen hebben...