ociale media gebruiken AI algoritmen om de foto’s te beoordelen die mensen willen plaatsen. Beelden die het algoritme als gewelddadig, pornografisch of “seksueel suggestief” aanmerkt, worden minder vaak aan anderen getoond, of zelfs geweigerd. Journalisten van The Guardian legden bloot dat dit veel vaker gebeurt met foto’s van vrouwen dan met foto’s van mannen. En omdat het algoritme het nogal eens bij het verkeerde eind heeft, kan dat nadelige gevolgen hebben, bijvoorbeeld voor de bedrijven van die vrouwen.
Onze kijk
Een niet heel verrassend, maar toch weer ontluisterend voorbeeld van structurele discriminatie. Het modereren van inhoud is verre van eenvoudig, maar dat mag geen excuus zijn. Er lijkt hier van alles mis te zijn gegaan, van het labelen van trainingsdata en het instellen van drempelwaarden tot het testen van het eenmaal ontwikkelde algoritme op vooringenomenheid.
https://www.theguardian.com/technology/2023/feb/08/biased-ai-algorithms-racy-women-bodies