FaceApp trekt racistische filters terug na felle kritiek - Vance

Nu aan het lezen

FaceApp trekt racistische filters terug na felle kritiek

FaceApp trekt racistische filters terug na felle kritiek

Je hebt ze vast weleens gezien, foto’s van je vrienden waarop ze opeens een stuk ouder of jonger lijken. Grote kans dat deze vrienden gebruik maken van de FaceApp: een applicatie dat gebruik maakt van gezichtsherkenning en filters op je gezicht plaatst. Zo transformeert de app jou binnen enkele seconden in een bejaard persoon met rimpels, of juist in een baby.

Racistische filters

Deze week beging de appmaker een grove fout. Zo bood de app nieuwe filters aan die je gezicht ‘zwart’, ‘indiaas’ of ‘aziatisch’ konden maken. Door deze optie te kiezen werd de kleur van je haar en huid veranderd. Dit werd al snel door de gebruikers als racistisch bestempeld en zorgde voor veel ophef of sociale media.

CEO van het bedrijf, Yaroslav Goncharov bood gisteren al snel zijn excuses aan en haalde de nieuwe filters offline. “De etniciteit filters zijn ontworpen met gelijkheid in gedachte,” vertelt hij aan The Verge, “ze hebben geen positieve of negatieve betekenis.” Goncharov vertelt ook dat de verschillende filters zelfs met eenzelfde icoon worden aangeduid. Hiermee geeft de CEO aan dat de filters als gelijke worden gepresenteerd.

Niet de eerste keer

Het is niet de eerste keer dat FaceApp in opspraak komt. Kort na de lancering van de app vorig jaar was er veel kritiek op een filter die gebruikers ‘mooier’ zou maken. Het gevolg was echter dat vooral de huidskleur van gebruikers werd aangepast. Destijds vertelde Goncharov dat de fout te wijten was aan de manier waarop de kunstmatige intelligentie getraind was. Dit betekent dat de software alleen data van knappe, blanke mensen had gekregen. Hierdoor koppelde de app een lichte huidskleur aan knapheid.

Vooroordelen over gender en etniciteit zijn een veelvoorkomend probleem op gebied van kunstmatige intelligentie. De technologie werkt op basis van instructies die mensen schrijven om de technologie te helpen leren. Deze instructies, of algoritmes, pakken daarom automatisch de subjectieve blik van de programmeurs op. Het gevolg hiervan is dat kunstmatige intelligentie in sommige gevallen tot seksistische en racistische resultaten leidt, vaak zonder dat de programmeur dit zo bedoeld heeft. Het voorbeeld van FaceApp laat zien dat dit nog steeds een probleem is waar hard aan gewerkt moet worden.

Content producer voor Vance, Dutchcowgirls en Numrush. Ze schrijft met een kritische blik over technologie en kunst en hoopt zo haar steentje bij te dragen aan de maatschappij.

Meest gedeeld

Meld je aan voor de nieuwsbrief.