Como tecnologias podem reforçar preconceitos – ou atuar a favor da diversidade e inclusão – Época NEGÓCIOS

(Foto: Getty Images)
Se a falta de diversidade prejudica todo tipo de empresa, afetando a capacidade de inovar e resolver problemas, ela é ainda mais perigosa na área da tecnologia, trazendo riscos ampliados para a sociedade.
Nesta era digital, a inteligência artificial (IA) – tecnologia de uso geral não muito diferente da eletricidade – permeia todos os setores da economia e o nosso dia a dia. Decisões que, para o bem ou para o mal, dependiam apenas do arbítrio humano – a que filme assistir, o que comprar, quem empregar, namorar, financiar ou prender – hoje são influenciadas por algoritmos. Por isso, é fundamental se perguntar como estes funcionam e por quem são criados.
Para acessar a edição de maio de Época NEGÓCIOS, assine a revista e tenha acesso à versão digital
O ramo mais bem-sucedido da IA é o aprendizado de máquina (machine learning), especialmente a técnica conhecida como deep learning, baseada em redes neurais artificiais inspiradas na estrutura do cérebro, que envolve algoritmos capazes de ir além de sua programação básica e aprender com grandes bases de dados com as quais são alimentados.
Dados são, portanto, o combustível da IA, o que explica por que, em um cenário de dependência crescente de algoritmos, empresas de tecnologia que capturam um volume enorme de informações – big techs como Meta, Google e Amazon – possuam vantagem competitiva e estejam entre as maiores da nossa época.
Pois bem, os algoritmos desenvolvidos por essas empresas quase nunca são neutros. Eles refletem os valores e as escolhas de seus donos e colaboradores e, não raramente, replicam seus preconceitos. Assim, é preocupante que a diversidade passe longe do setor digital em geral e das big techs em particular.
Segundo levantamentos recentes realizados nos Estados Unidos, quase 80% dos programadores daquele país são homens, e só 12% das principais pesquisadoras em machine learning são mulheres. Apenas 15% dos funcionários que atuam em IA no Facebook e 10% no Google, por exemplo, são do sexo feminino.
Quando o quesito é raça, a ausência de pluralidade é ainda mais gritante. Somente 2% da força de trabalho do Google nos EUA é composta de negros, número que no Facebook e na Microsoft é de 4%.
E as perspectivas futuras não são brilhantes, já que esse retrato se repete nas startups, que globalmente contam com apenas 14% de fundadoras mulheres, e até nas universidades, como Stanford, onde escrevo este artigo, na qual menos de 6% dos alunos de ciência da computação são negros.
A situação se agrava quando verificamos que muitas das bases de dados que servem para treinar os algoritmos tampouco são diversas, o que provoca inúmeras distorções. Foi demonstrado como isso levou programas de reconhecimento facial a produzirem resultados menos acurados para mulheres e pessoas com a pele escura do que para homens brancos.
Em outro caso emblemático, uma ferramenta adotada pela Amazon para recrutar engenheiros de software discriminava as mulheres, priorizando os homens no processo seletivo ao se basear no histórico de contratações da própria empresa, predominantemente masculino. Até no setor da saúde bancos de dados pouco plurais trazem efeitos nocivos, havendo registro de sistemas de IA para detecção de câncer de pele menos eficientes em negros e pardos.
Programas voltados a orientar decisões relativas ao policiamento preditivo ou à atribuição de sentenças sofrem com vieses que se retroalimentam, e sua pretensa objetividade pode levar suas recomendações a serem seguidas cegamente, piorando esse quadro.
Um software utilizado no Judiciário norte-americano para avaliar quem responderia a acusações em liberdade classificava o dobro de réu negros erroneamente como de alto risco de recidiva em comparação aos brancos, os quais, apesar de serem identificados como de baixo risco, com frequência reincidiam em crimes. Nesse caso, além de racista, o modelo se mostrou ineficiente, causando injustiças e insegurança.
A perpetuação da discriminação é uma externalidade negativa desses sistemas construídos sem representatividade, que se estende a mais e mais áreas à medida que o “solucionismo tecnológico” passa a ser visto como resposta para todos os problemas. E pode se disseminar ao extremo com a evolução da tendência a exercermos boa parte de nossas atividades em um metaverso virtual onde os códigos de computador sejam lei, e seus criadores, legisladores.
Se as empresas que desenham os algoritmos e acumulam os dados que os abastecem contassem internamente com um olhar mais diverso, haveria mais cuidado para que estes não embutissem nenhum tipo de viés. Ainda que esses sistemas, principalmente os que se valem de deep learning, tendam a ser caixas-pretas, em princípio é mais fácil reprogramar uma máquina do que um ser humano preconceituoso, cujas motivações às vezes são bem obscuras, inclusive.
Algoritmos não têm razões intrínsecas para decidir de uma ou outra forma. Se conseguirmos torná-los mais compreensíveis, transparentes e, portanto, monitoráveis, poderão se transformar em um instrumento útil para evitar a discriminação. Já está claro que a IA tem potencial para expandir as fronteiras da humanidade a níveis inimagináveis. É preciso garantir, também, que ela seja uma arma a serviço da igualdade e da inclusão.
Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti, pesquisador visitante na Universidade de Stanford, sócio da área de Inovação e Startups de Elias, Matias Advogados

source

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Deixe uma resposta

O seu endereço de email não será publicado.