‘There is no standard’: investigation finds AI algorithms objectify women’s bodies

Mon, 20 Feb 2023 21:41:08 +1100

Andrew Pam <xanni [at] glasswings.com.au>

Andrew Pam

"Images posted on social media are analyzed by artificial intelligence (AI)
algorithms that decide what to amplify and what to suppress. Many of these
algorithms, a Guardian investigation has found, have a gender bias, and may
have been censoring and suppressing the reach of countless photos featuring
women’s bodies.

These AI tools, developed by large technology companies, including Google and
Microsoft, are meant to protect users by identifying violent or pornographic
visuals so that social media companies can block it before anyone sees it. The
companies claim that their AI tools can also detect “raciness” or how sexually
suggestive an image is. With this classification, platforms – including
Instagram and LinkedIn – may suppress contentious imagery.

Two Guardian journalists used the AI tools to analyze hundreds of photos of
men and women in underwear, working out, using medical tests with partial
nudity and found evidence that the AI tags photos of women in everyday
situations as sexually suggestive. They also rate pictures of women as more
“racy” or sexually suggestive than comparable pictures of men. As a result, the
social media companies that leverage these or similar algorithms have
suppressed the reach of countless images featuring women’s bodies, and hurt
female-led businesses – further amplifying societal disparities."

       *** Xanni ***
mailto:xanni@xanadu.net               Andrew Pam
http://xanadu.com.au/                 Chief Scientist, Xanadu
https://glasswings.com.au/            Partner, Glass Wings
https://sericyb.com.au/               Manager, Serious Cybernetics

Comment via email

Home E-Mail Sponsors Index Search About Us