Google Assistente terá novas respostas contra assédio, racismo e homofobia de usuários – Folha de Pernambuco

Para desestimular frases de assédio e agressões verbais ao seu assistente de voz virtual, o Google anunciou que o software adotará diferentes abordagens com o usuário. A iniciativa, que teve início nos Estados Unidos, já começou a ser implantada no Brasil e traz novas respostas ativadas sempre que há um insulto ou uso de termos que remetam a assédio ou violência de gênero sejam proferidos durante as interações. 
De acordo com o Google, a atualização tenta lidar com as inúmeras mensagens abusivas recebidas pelo Assistente globalmente. Somente no Brasil, são centenas de milhares, todos os meses — grande parte delas com conteúdo de violência de gênero. Segundo a empresa, cerca de 2% das interações de perguntas ou comandos de caráter pessoal, feitas em território tupiniquim, são de mensagens que utilizam termos abusivos ou inapropriados e há casos em que os usuários chegam a pedir nudes para a voz feminina da assistente.
Sem papas na língua 
Cada nova resposta do Google Assistente deverá considerar o nível de abuso cometido. Em caso de ofensa explícita — como uso de palavrões, ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito —, a voz da gigante da Internet poderá responder usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo repelir esse tipo de comportamento, respondendo: “Não fale assim comigo”.
No caso de mensagens que não são explicitamente ofensivas, mas que representam condutas consideradas inapropriadas no mundo real, a voz do Google poderá dar um “fora” no usuário tanto de jeito bem-humorado, como alertando sobre o incômodo trazido pelo comentário.
Estudo feito especialmente para o Brasil
Segundo o Google, a atualização das respostas para o português brasileiro precisou passar por um processo de revisão e adaptação avaliando o sentido que determinadas palavras ou expressões, típicas. A frase ‘você é uma cachorra’, por exemplo, foi uma das categorizadas como ofensa. 
Além disso, a empresa contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil, que ajudaram a identificar termos considerados ofensivos em diferentes comunidades, ou que remetem a preconceitos culturais. Foram eles também que contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação. Se a pessoa usar a palavra “bicha” ao invés de “gay” ou “homossexual”, o Google Assistente irá alertar que aquilo pode ser ofensivo.
As novas respostas estão disponíveis em todas as versões do Google Assistente no Brasil.

source

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Deixe uma resposta

O seu endereço de email não será publicado.