Assistentes de voz femininas são sexistas argumentam novo relatório da ONU

Obsequiosas, tímidas e, acima de tudo, assistentes virtuais como Alexa, Siri e o Google Assistant são um exemplo generalizado de sexismo, argumenta um novo relatório da ONU, divulgando o viés de gênero codificado em produtos de tecnologia. O uso de vozes femininas padrão para assistentes digitais e suas reações programadas a insultos e solicitações inadequadas podem estar contribuindo para uma crescente disparidade de gênero, sugere-se.

As vozes femininas são geralmente a interface de escolha para assistentes digitais, como Alexa, da Amazon, o Assistente do Google em telefones e alto-falantes inteligentes, e Siri da Apple, no iPhone e outros dispositivos. Em alguns casos, os fabricantes oferecem vozes alternativas, que podem incluir diferentes gêneros e sotaques. No entanto, não está claro quantas pessoas realmente definem seu assistente com uma voz diferente, ou mesmo sabem que a opção existe.

Como resultado, para a maioria dos usuários, o assistente em sua plataforma de escolha está associado a uma identidade feminina. Isso apesar da IA ​​subjacente que alimenta esses serviços sem sexo. Em vez de ser uma interface tardia, diz um estudo das Nações Unidas, esse padrão generalizado pode estar reforçando ou até criando “uma lacuna de gênero em habilidades digitais”.

Por exemplo, as reações dos assistentes a insultos ou comentários ou solicitações inadequadas são criticadas. Quando Siri diz “eu coraria se pudesse” em resposta a ser chamado de insulto depreciativo, sugere o relatório da ONU, ele promove uma idéia de “submissão diante do abuso de gênero”.

Isso poderia estar ajudando a desencorajar mulheres e meninas a entrar no campo da tecnologia, sugerem os autores do relatório. “A obsequiosidade ‘feminina’ da Siri – e a servidão expressa por muitos outros assistentes digitais projetados como mulheres jovens – fornece uma ilustração poderosa dos preconceitos de gênero codificados em produtos de tecnologia, difundidos no setor de tecnologia e aparentes na educação de habilidades digitais”, argumentam eles.

A Apple e outras empresas de tecnologia ajustaram a maneira como seus assistentes reagem a sugestões e perguntas além dos casos de uso típicos previstos para os sistemas. Em vez de corar, por exemplo, a Siri agora tem uma resposta “não sei como responder a isso” de comentários sexistas. Outras mudanças nos últimos anos incluíram incentivar os usuários a dizer “por favor” e “obrigado” enquanto interagem com as IAs.

Mesmo assim, o relatório da ONU responde que, simplesmente apresentando-se como mulheres, essas tecnologias potencialmente prejudicam as mulheres na indústria. Embora os fabricantes tenham apontado para pesquisas que indicam que os usuários preferem – e às vezes acham mais úteis – interagir com uma voz feminina do que uma versão masculina, a ONU argumenta que o viés de gênero também desempenha um papel significativo.

Não são apenas os assistentes virtuais, no entanto, que podem estar contribuindo para o problema. A ONU também destaca o uso generalizado de chatbots e agentes virtuais, novamente baseados em tecnologia sem gênero inerente, mas que usam uma identidade feminina para suas interações com usuários humanos. No entanto, as experiências de assistentes por voz são a grande área de crescimento, destacam os autores, e aquela com maior potencial de ser problemática.

É provável que o relatório seja controverso, com alguns indubitavelmente contestando que antropomorfiza a tecnologia para pressionar um argumento de gênero. Incentivar mais pessoas a considerar as funções de TIC e engenharia, no entanto, geralmente parece uma coisa boa. Tornar assistentes digitais menos servis e não necessariamente identificáveis ​​do sexo feminino por padrão seria uma maneira sólida de começar isso, sugere o relatório de 145 páginas.

Artigos Relacionados

Back to top button