Categorias
Blog

IA nos negócios: evitando a perpetuação de preconceitos

Por Dilma Campos.

Racismo algorítimico deve ser sempre lembrado na medida em que estamos depositando nossa confiança na inteligência artificial. Você já pensou sobre esta necessidade neste futuro próximo e o impacto disso nos negócios?

Joy Buolamwini, mulher preta, estava no primeiro ano de sua pós-graduação no MIT em 2015 quando criou um experimento chamado “Aspire Mirror”, que tentava mudar a imagem de seu rosto na tela do computador, para funcionar como se fosse um espelho, mas os softwares simplesmente não conseguiam reconhecer sua face. A Amazon criou um programa de inteligência artificial para encontrar bons candidatos a vagas de emprego, que discriminava mulheres no processo de seleção.

A empresa deixou de usar o programa, mas só descobriu a falha após um ano de desenvolvimento. Uma campanha de uma rede de farmácias patrocinadora da Seleção Brasileira Feminina de Futebol mostra uma resposta enviesada dos três chatbots de IA mais conhecidos do mundo – entre eles o ChatGPT – , que dizia que quem havia feito mais gols pela Seleção Brasileira era Pelé, quando a resposta correta seria Marta (119 gols, contra os 95 dele).

O que essas histórias nos alertam sobre a Inteligência Artificial?

Há um iminente risco de perpetuarmos os preconceitos de gênero, raça e etnia de nossa sociedade se continuarmos a usar a IA como temos feito até hoje. Um viés que pode trazer severos danos de imagem e reputação das marcas e consequências ainda piores para as pessoas impactadas pelos erros da tecnologia.

Esse alerta se torna ainda mais urgente considerando uma pesquisa do BCG que ouviu 1.400 executivos C-level, que diz que 89% dos líderes consideram a IA e a GenAI uma das três prioridades tecnológicas para suas empresas, sendo que mais da metade (51%) coloca estas tecnologias no topo da lista dos investimentos.

Se os negócios estão sendo redesenhados usando tecnologias emergentes como a IA, o que precisa ser feito para evitar erros como os das histórias contadas no início deste artigo?

Em primeiro lugar, alertar os executivos, lideranças e CEOs que tomam as decisões de investimentos na tecnologia sobre a importância da diversidade e da responsabilidade ética das marcas como premissas de desenvolvimento, em especial enquanto a regulamentação da IA ainda não foi aprovada. Afinal, os algoritmos da inteligência artificial são treinados com base em dados que precisam prever a diversidade de raça, gênero e etnia da população brasileira e mundial.

Parece óbvio, mas por que ainda precisamos falar sobre isso? Uma pesquisa do Google for Startups, “O Impacto e o futuro da Inteligência Artificial no Brasil” mostrou que falta diversidade nas empresas de IA: 49% não têm mulheres na liderança, 61% não têm pessoas negras nestes cargos e 71% não têm pessoas LGBTQIAPN+. Sem o olhar diverso, será que os programas de IA e os algoritmos que estão sendo desenvolvidos nesse ecossistema têm a premissa de incluir todas as pessoas em sua diversidade? Muito provavelmente não.

Uma iniciativa brasileira que está indo na contramão desta tendência é a DEB, uma IA desenvolvida pelo Instituto Identidades do Brasil, ONG que promove a igualdade racial no mercado de trabalho e na sociedade. Desenvolvida por uma equipe de especialistas em diversidade do Instituto, DEB tira dúvidas sobre a pauta étnico-racial, apoiando o letramento racial de empresas e organizações.

Antes de finalizar, quero destacar uma fala de Joy Buolamwini, a pesquisadora do início desse texto que, depois de ter descoberto as falhas nos sistemas de reconhecimento facial de pessoas pretas, intensificou os estudos e fundou a Liga da Justiça Algorítmica, além de publicar o best-seller Unmasking AI. Sua reflexão resume de forma exemplar porque as empresas têm de se preocupar com o tema, se não pela questão ética, pelo impacto disso no negócio: “Se você criou uma ferramenta de IA que não funciona para a maioria das pessoas do mundo, você acha que realmente criou uma boa ferramenta?”

Deixe um comentário

O seu endereço de e-mail não será publicado.