Nu aan het lezen
Je hebt ze vast weleens gezien, foto’s van je vrienden waarop ze opeens een stuk ouder of jonger lijken. Grote kans dat deze vrienden gebruik maken van de FaceApp: een applicatie dat gebruik maakt van gezichtsherkenning en filters op je gezicht plaatst. Zo transformeert de app jou binnen enkele seconden in een bejaard persoon met rimpels, of juist in een baby.
Deze week beging de appmaker een grove fout. Zo bood de app nieuwe filters aan die je gezicht ‘zwart’, ‘indiaas’ of ‘aziatisch’ konden maken. Door deze optie te kiezen werd de kleur van je haar en huid veranderd. Dit werd al snel door de gebruikers als racistisch bestempeld en zorgde voor veel ophef of sociale media.
Wow… FaceApp really setting the bar for racist AR with its awful new update that includes Black, Indian and Asian "race filters" pic.twitter.com/Lo5kmLvoI9
— Lucas Matney (@lucasmtny) August 9, 2017
CEO van het bedrijf, Yaroslav Goncharov bood gisteren al snel zijn excuses aan en haalde de nieuwe filters offline. “De etniciteit filters zijn ontworpen met gelijkheid in gedachte,” vertelt hij aan The Verge, “ze hebben geen positieve of negatieve betekenis.” Goncharov vertelt ook dat de verschillende filters zelfs met eenzelfde icoon worden aangeduid. Hiermee geeft de CEO aan dat de filters als gelijke worden gepresenteerd.
Het is niet de eerste keer dat FaceApp in opspraak komt. Kort na de lancering van de app vorig jaar was er veel kritiek op een filter die gebruikers ‘mooier’ zou maken. Het gevolg was echter dat vooral de huidskleur van gebruikers werd aangepast. Destijds vertelde Goncharov dat de fout te wijten was aan de manier waarop de kunstmatige intelligentie getraind was. Dit betekent dat de software alleen data van knappe, blanke mensen had gekregen. Hierdoor koppelde de app een lichte huidskleur aan knapheid.
#faceapp isn't' just bad it's also racist…🔥 filter=bleach my skin and make my nose your opinion of European. No thanks #uninstalled pic.twitter.com/DM6fMgUhr5
— Terrance AB Johnson (@tweeterrance) April 19, 2017
Vooroordelen over gender en etniciteit zijn een veelvoorkomend probleem op gebied van kunstmatige intelligentie. De technologie werkt op basis van instructies die mensen schrijven om de technologie te helpen leren. Deze instructies, of algoritmes, pakken daarom automatisch de subjectieve blik van de programmeurs op. Het gevolg hiervan is dat kunstmatige intelligentie in sommige gevallen tot seksistische en racistische resultaten leidt, vaak zonder dat de programmeur dit zo bedoeld heeft. Het voorbeeld van FaceApp laat zien dat dit nog steeds een probleem is waar hard aan gewerkt moet worden.
Sorry. Nog geen gegevens beschikbaar.