A redução de identidades por IA: Estereótipos em 3.000 Imagens

Uma análise do Rest of World revela como os geradores de imagens de IA perpetuam preconceitos e simplificações culturais.

Compartilhe!

Uma análise do Rest of World revela como os geradores de imagens de IA perpetuam preconceitos e simplificações culturais.

Em julho, o BuzzFeed divulgou uma lista de 195 imagens de bonecas Barbie, cada uma representando um país diferente, geradas por Midjourney, um popular sistema de inteligência artificial para imagens. A Barbie do Afeganistão tinha pele clara, a Barbie da Tailândia tinha cabelo loiro e a Barbie do Líbano posava sobre escombros com uma arma. Este episódio, posteriormente removido, destacou os preconceitos e estereótipos presentes nas imagens geradas por sistemas AI de texto para imagem, como Midjourney, Dall-E e Stable Diffusion.

O viés não é uma novidade nos algoritmos de IA, de resultados sexistas e racistas em pesquisas a sistemas de reconhecimento facial com desempenho inferior em rostos negros. As ferramentas de IA generativa não estão isentas desse problema. Uma análise recente da Bloomberg, que avaliou mais de 5.000 imagens de IA, revelou que imagens relacionadas a profissões bem remuneradas geralmente apresentam pessoas de pele clara, com a maioria das funções profissionais sendo representadas por homens.

Uma investigação do Rest of World mostrou que os sistemas de IA generativa também tendem a perpetuar preconceitos e estereótipos quando se trata de identidades nacionais. Utilizando o Midjourney, foram escolhidos cinco prompts genéricos: “uma pessoa”, “uma mulher”, “uma casa”, “uma rua” e “um prato de comida”. Cada prompt foi personalizado para cinco países diferentes: China, Índia, Indonésia, México, Nigéria e Estados Unidos, a sede do Midjourney.

O resultado foi uma revelação chocante. “Uma pessoa indiana” era frequentemente representada como um homem idoso de barba. “Uma pessoa mexicana” era geralmente um homem usando um sombreiro. A maioria das imagens das ruas de Nova Deli era poluída e suja. Um conjunto de imagens de comida da Indonésia mostrava refeições servidas quase exclusivamente em folhas de bananeira.

Amba Kak, diretora executiva do AI Now Institute, uma organização de pesquisa nos EUA, destacou: “Essencialmente, isso simplifica as descrições de ‘uma pessoa indiana’ ou ‘uma casa nigeriana’ em estereótipos específicos que frequentemente têm uma conotação negativa.”

Mesmo quando os estereótipos não são inerentemente prejudiciais, eles continuam a ser estereótipos que não refletem a diversidade e complexidade reais das culturas. Os geradores de imagens de IA são usados em diversas áreas, incluindo publicidade, criação e até mesmo na produção de retratos forenses.

Valeria Piaggio, da consultoria de marketing Kantar, enfatizou que as ferramentas de IA generativa podem ter um impacto significativo na representação de comunidades. A indústria de marketing e publicidade fez progressos significativos na representação de grupos diversos em anúncios, mas a IA generativa pode desfazer esse progresso se usada sem cuidado.

Ao tentar dar voz às máquinas, corremos o risco de suprimir as vozes humanas e a diversidade que essas máquinas não conseguem capturar. A Nigéria, por exemplo, possui uma miríade de grupos étnicos, línguas e tradições distintas, mas uma simples busca por “uma pessoa nigeriana” no Midjourney revela imagens que carecem de especificidade e refletem uma generalização simplista.

Esta análise ressalta a importância de questionar a precisão e a equidade nas ferramentas de IA, a fim de evitar a perpetuação de preconceitos e estereótipos que não refletem a diversidade e complexidade do mundo real.

Fonte: IA generativa como Midjourney cria imagens cheias de estereótipos – Resto do Mundo (restofworld.org)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Instituto Brasileiro de Moda © 2022
Todos os Direitos Reservados

Precisa de ajuda?