Discriminação racial é praticada até mesmo pela Inteligência Artificial

Williane Marques de Sousa
Publicado em: seg, 03/05/2021 - 12:46

O site G1(1) informou que a Central Única das Favelas (CUFA) anunciou no dia 26/04 que interrompeu o uso de um sistema de reconhecimento facial que autenticava beneficiários cadastrados para o recebimento de doações devido à grande repercussão negativa que recebeu por meio das redes sociais sobre o uso dessa tecnologia.

Durante a pandemia, a organização ajudou muitas famílias carentes por meio de projetos sociais e um desses é a doação de cestas básicas. A grande polêmica, porém, surgiu pelo fato da ONG estar usando a tecnologia de reconhecimento facial para cadastrar pessoas que receberiam as cestas básicas, o que gerou vários questionamentos de ativistas e especialistas sobre a necessidade do uso deste mecanismo e também sobre a proteção dos dados que estariam sendo coletados por meio dessa tecnologia.

Isso porque os dados da face são pessoais e biométricos, portanto, são considerados sensíveis pela Lei Geral de Proteção de Dados (LGPD), e, por isso, necessitam de proteções adicionais para evitar vazamentos. A finalidade da coleta da imagem facial precisa ser clara e o processo deve ser transparente, seguro e não-discriminatório. Além disso, o site do Diário do Nordeste (2) publicou uma matéria informando sobre os riscos do uso dessa tecnologia, quais sejam: o abuso de direitos e controle (caso os dados coletados sejam compartilhados com autoridades policiais e governamentais, criando, assim, um sistema de vigilância); invasão à privacidade, reconhecimento falho de emoções e incidentes de segurança e até mesmo discriminação e viés.

Curso LGPD – Lei Geral de Proteção de Dados – Aplicações e Boas-Praticas
 

Em relação à discriminação, existem estudos recentes que mostram que a taxa de erro dessas ferramentas é maior para pessoas negras do que para outros grupos. Isso acontece, em parte, pela defasagem na representação de rostos negros em bancos de dados. O site Brasil de fato (3) informou que “o uso da tecnologia é considerado temerário e pode ter desdobramentos em práticas racistas pelo Estado, como o incremento no encarceramento de negros”. Para comprovar tal afirmação, o site divulgou um estudo realizado pela Rede de Observatórios da Segurança em dezembro de 2019, sobre pessoas presas no Brasil com uso do reconhecimento facial, feito entre junho e outubro daquele ano, em cinco estados: Bahia, Rio de Janeiro, Santa Catarina e Paraíba. De acordo com o levantamento, 90% dos detidos foram negros.

E os exemplos de discriminação pela tecnologia não param por aí: um documentário da Netflix chamado “Coded Bias” investiga o viés discriminatório nos algoritmos depois que uma pesquisadora negra chamada Joy Buolamwini, do MIT (Instituto de Tecnologia de Massachusetts), descobriu falhas na tecnologia de reconhecimento facial. Tudo começou quando a pesquisadora utilizou um espelho com Inteligência Artificial (IA) que não conseguia realizar a análise facial do seu rosto. Porém, percebeu que quando colocava uma máscara branca, o sistema detectava a face, e quando retirava a máscara, nada acontecia. A partir daí, ela começou a investigar a questão do viés racista embutido na tecnologia e, posteriormente, recebeu contribuições de outras mulheres importantes que trabalham nesse universo da inteligência artificial.

Nessa pesquisa, Buolamwini investigou softwares de grandes empresas como a IBM, Google, Microsoft e a Amazon e, por incrível que pareça, todos os algoritmos analisados foram melhores ao reconhecer rostos de pessoas brancas. O documentário mostra diversos exemplos de como a tecnologia e, principalmente a inteligência artificial, possui um viés racista e como isso provoca consequências terríveis. Um desses exemplos foi um estudo realizado pela agência de saúde de New York que mostrou que o algoritmo de triagem de uma determinada empresa priorizava o atendimento de pessoas brancas com casos menos emergenciais do que negros em situações mais graves.

Curso Direito Penal – Crimes de Preconceito ou Discriminação Racial 

O documentário mostrou que a tecnologia não possui apenas um viés racista, que segrega os negros, mas também um viés de discriminação de gênero, onde as mulheres são afetadas: a empresa Amazon estava contratando pessoas via recrutamento com inteligência artificial, que se baseava apenas na frieza dos dados curriculares. Resultado? Todos os currículos de mulheres foram rejeitados. Podemos afirmar que a máquina estava apenas replicando o mundo tal como ele existe atualmente, mundo este marcado fortemente pelo machismo. Ficou curioso sobre o filme? O link para acesso na Netflix está no final do texto (5).

A explicação para isso existe, porém, é um tanto complexa: antes dos algoritmos, tínhamos os homens, e homens podem ser desrespeitosos, imorais, injustos, racistas, machistas e controladores e é o homem que constrói as máquinas e seus algoritmos. Para que a máquina aprenda, é necessário que lhe sejam apresentados exemplos do que o seu criador quer que ela aprenda. O problema acontece porque os dados usados nesse aprendizado são distorcidos e muitas vezes se baseiam em falhas da sociedade, como o preconceito de raça e de gênero. Sobre isso, a pesquisadora afirma no documentário que, embora seja algo futurista é “o passado que está marcado em nossos algoritmos”, logo, se a sociedade é marcada pelo racismo e machismo, por exemplo, as máquinas e os algoritmos apenas repetirão suas ações.

Ao final do documentário, Joy Buolamwini aparece no Congresso para apresentar sua pesquisa sobre o uso da tecnologia de análise facial, suas respectivas falhas e seu viés discriminatório a fim de solicitar e informar a necessidade da elaboração de leis que regulem o uso da tecnologia. Após a repercussão, a cidade de São Francisco se tornou a primeira cidade a proibir o uso da tecnologia facial. Em 25 de junho de 2020, parlamentares americanos apresentaram um projeto de lei proibindo o uso federal de reconhecimento facial.

Curso Racismo Estrutural e Racismo Institucional no Brasil
 

O documentário “Coded Bias” juntamente com os estudos feitos sobre essas tecnologias mostram que, esses algoritmos além de sugerirem publicidade, músicas e filmes para os usuários, praticamente os induzindo ao consumo, possuem um viés discriminatório que é capaz de alterar e até mesmo controlar a vida das pessoas, determinado quem irá ser aceito, contratado, atendido num hospital e até mesmo ser preso. Percebemos então que o problema não é propriamente a tecnologia, mas sim a forma como ela é constituída e utilizada, o que afeta diretamente a vida das pessoas. Por isso, é necessária a elaboração de leis que regulamente essas tecnologias, como a de análise de reconhecimento fácil, para que elas sejam utilizadas apenas em determinados momentos e com o objetivo de facilitar a vida das pessoas e não atrapalhar, através da discriminação.

Sobre a notícia citado no início do artigo, a Cufa afirmou que adotou o reconhecimento facial para simplificar o processo dos seus projetos, já que antes a prestação de contas era feita com registros em papel. Porém, com a repercussão negativa que o uso desta tecnologia tomou, juntamente com a preocupação existente em relação à proteção de dados por parte de algumas pessoas, a organização deixou de utilizar a tecnologia, e informou que todos os dados já coletados foram excluídos e que agora só fará parceria com os doadores que aceitarem as prestações de conta em forma de fotos e vídeos.

O direito à proteção de dados pessoais é considerado um direito fundamental, assegurado constitucionalmente e está associada à dignidade da pessoa humana e também à proteção da inviolabilidade da intimidade. Por isso, todo cidadão tem o direito de ter controle e transparência sobre a utilização das suas informações pessoais. Essas e outras notícias nos faz pensar sobre a importância da educação e dos debates relacionados à proteção dos dados pessoais na nossa atual sociedade, que está cada vez mais tecnológica.

Williane marques de Sousa
Estagiária Unieducar – Estudante de Direito

Referências:

  1. https://g1.globo.com/economia/tecnologia/noticia/2021/04/27/por-que-a-cu...
  2. https://diariodonordeste.verdesmares.com.br/ultima-hora/seu-direito/reco...
  3. https://www.brasildefato.com.br/2021/04/26/cufa-fez-cadastramento-facial...
  4. https://www.uol.com.br/tilt/noticias/redacao/2021/04/10/coded-bias-da-ne...
  5. https://www.netflix.com/br/title/81328723

Nota do editor: os textos, fotos, vídeos, tabelas e outros materiais iconográficos publicados no espaço “opinião” não refletem necessariamente nosso pensamento, sendo de total responsabilidade do(s) autor(es) as informações, juízos de valor e conceitos divulgados.