Participe da
Comunidade Ícone Whatsapp
Notícias

Racismo e sexismo algorítmico voltam a discussão com apps de avatares

Aplicativos que reproduzem sexismo, machismo e racismo por meio de algoritmos voltaram a ser discutidos em meio à febre dos avatares estilizados.

Ao longo de dezembro, foram 12,6 milhões de downloads apenas do Lensa AI’s, o app de inteligência artificial que transforma suas selfies em fotos estilizadas como Anime, Sci-Fi, ou fantasias, além de inúmeras outras possibilidades artísticas. O resultado, além da diversão, inclui algumas características nada positivas sobre a sociedade humana.

O sucesso do App, cujos downloads cresceram 600% nos 11 primeiros dias de Dezembro, em relação aos 11 dias anteriores, levou uma série de outros apps similares a entrarem na lista de mais baixados na loja de aplicativos do Iphone.

Faça parte da Comunidade Exclusiva PRO do BlockTrends.APP e lucre em cripto com relatórios semanais, análises diárias, carteiras recomendadas e lives.

De fato, os apps de edição de fotos utilizando tecnologias de inteligência artificial dominam o top3 de mais baixados e chegam a 8 dos no top100. 

O efeito viral de apps do tipo também levou inúmeros desenvolvedores a alterarem o nome de seus apps buscando capturar parte do sucesso do número 1 do ranking. 

Além de mudanças de nome, boa parte dos apps utiliza “Inteligência Artificial” apenas no nome. No caso da Lensa, a utilizada é a chamada “Stable Diffusion”, uma inteligência artificial que tem sido criticada pelas suas práticas.

Diante do sucesso do app, muitos consumidores têm levantado o fato de que a IA utiliza o trabalho de artistas sem o seu consentimento como forma de se aprimorar. Considerando que app cobra uma assinatura para fazer as imagens divertidas e estilizadas, as críticas acabam ressaltando o roubo de propriedade intelectual pelas IAs.

Em outra questão também controversa, pesquisadores do MIT descobriram que a abundância de imagens sexualizadas de animes e hentais contribuiu para que ao gerar avatares de mulheres de origem asiática, o app acabe criando versões sexualizadas, ou mesmo nuas. 

Na descrição do relatório do MIT, a situação leva a um questionamento sobre desenvolvimento ético e responsável por apps de inteligência artificial, uma questão que já foi abordada em outros experimentos.

O chamado “racismo algorítmico” também espreita o desenvolvimento de tecnologias do tipo. Em 2015, por exemplo, um usuário detectou a associação de imagens de seus amigos negros a pesquisa por “Gorilas” no Google. O Google se desculpou na ocasião, mencionando que a situação ocorre em função de associações por parte de usuários da rede, que linkam imagens e textos.

Na prática, os algoritmos de inteligência artificial demandam inputs humanos, o que por sua vez corrobora para externalização de vieses por parte de grupos étnicos e demográficos que os criaram. Questões sociais como sexismo, machismo ou racismo, acabam sendo replicadas por apps ao utilizarem as bases de dados gerados pela própria sociedade.

$100 de bônus de boas vindas. Crie sua conta na melhor corretora de traders de criptomoedas. Acesse ByBit.com



Mt. Gox diz que vai pagar US$ 8 bilhões aos credores semana que vem Ancord e BlockTrends lançam primeira Certificação em Criptoativos do Mercado Financeiro e de Capitais Donald Trump Agora Possui US$ 30 Milhões em Memecoins DOG é listada na Bybit e atinge máxima histórica pelo segundo dia consecutivo DOG, memecoin no Bitcoin, atinge nova máxima histórica