Foto: Arquivo Agência Brasil
Com o avanço da tecnologia, o mundo explora cada vez mais o uso da inteligência artificial e sua forma de interação entre o planeta real e o virtual. O reconhecimento facial, que surgiu a partir dessas inovações, é uma categoria de segurança biométrica que tem se multiplicado pelo Brasil e gerado críticas de especialistas que definem o sistema como racismo algoritmo.
Utilizado sem critério pela polícia, o reconhecimento facial, que funciona com um sistema que utiliza algoritmos e softwares para mapear padrões nos rostos das pessoas, tem sido usado para prender centenas de brasileiros inocentes no país inteiro, a grande maioria negros.
Um levantamento feito pela Rede de Observatório da Segurança em 2019 apontou que 90% dos presos por meio do reconhecimento facial no país, eram negros.
O tema vem sendo fortemente questionado nos últimos dias após a Prefeitura de São Paulo suspender um pregão eletrônico para contratar um sistema de monitoramento por câmeras que prevê que as pessoas filmadas sejam identificadas e rastreadas por meio de reconhecimento facial e de cor.
Mas, afinal, por que o reconhecimento facial e o algoritmo podem ser racistas? A pesquisadora Brenda Cunha, uma das autoras do Tire Meu Rosto da Sua Mira, uma campanha que mobiliza a sociedade civil pelo banimento total do uso de reconhecimento facial na esfera da segurança pública brasileira, afirma que reconhecimento facial é racista por ser uma tecnologia com percentual de taxas de erros de identificação maior em pessoas negras, em especial as mulheres negras.
“Essas falhas, no contexto da segurança pública, tenderiam a agravar ainda mais o histórico de violência policial existente no país, que tem como alvo principal a juventude negra e periférica”, diz.
O projeto da prefeitura paulista foi duramente criticado por estudiosos da questão racial e mais de 50 organizações sociais da sociedade civil e do movimento negro que acionaram o Ministério Público do Estado contra o edital da prefeitura de São Paulo, o programa chamado de "Smart Sampa".
Projeto aprofunda racismo estrutural
Para a pesquisadora, o programa não é apenas racista, ele aprofunda o racismo estrutural no Brasil. “É importante também ressaltar que o potencial de aprofundamento do racismo promovido pelo uso do reconhecimento facial não se resolve com uma eventual correção das falhas de identificação desses sistemas”, completa Brenda.
De acordo com uma pesquisa realizada pela organização Panóptico, que acompanha a implementação e os resultados dos recentes projetos de uso de tecnologias de reconhecimento facial voltadas ao policiamento no país, o uso de reconhecimento facial não reduziu o crime, pelo contrário, aumentou. O órgão realizou um projeto piloto em Copacabana, no Rio de Janeiro, que estava implantando o uso da ferramenta, mas essa narrativa de aumento de segurança não foi comprovada no monitoramento da Panótpico.
Barbara Tech, formada em relações internacionais e pesquisadora de temas de tecnologia e justiça social, afirma que historicamente existem evidências de que o policiamento quando faz o uso de tecnologia para vigilância acaba criminalizando comunidades de baixa renda e racializadas.
“Por todos esses motivos é importante debater essa questão, tornar mais evidente o fato de que essas tecnologias não são neutras, elas estão sendo construídas por pessoas com vieses e a gente precisa questionar os efeitos que essas tecnologias têm nas nossas vidas e nas relações de gênero e raça”, reitera a pesquisadora.
De acordo com os pesquisadores, após vazamentos de informações sigilosas e pessoais em grandes empresas como Facebook, Netflix, Linkedin e Uber, ficou comprovado que nenhuma informação está 100% protegida.
Mas, quando o assunto está relacionado à segurança do indivíduo, pessoas negras são incriminadas indevidamente pelo reconhecimento facial criado por algoritmos carregados pelo viés do racismo estrutural.
Viés racista
Na versão do edital da prefeitura, as câmeras que seriam instaladas e integradas na cidade poderiam fazer identificação de pessoas ''suspeitas'' de acordo com a sua cor de pele. Também seria possível monitorar ações de "vadiagem". No pós-abolição surgiu a Lei da Vadiagem, em 1889, que tinha como alvo os ex-escravizados que não tinham emprego nem moradia.
O uso dessas tecnologias, que já são usadas na China, nos Estados Unidos, Rússia, Inglaterra, Uganda, Quênia, Eslovênia, Myanmar, Emirados Árabes Unidos, Israel e Índia, provoca uma série de abusos e violações a direitos humanos, segundo uma carta aberta elaborada por organizações internacionais a favor do banimento do uso de reconhecimento facial.
Brenda avalia ainda que é necessário debater essa questão e fortalecer as mobilizações sociais contra este projeto que dá aval para o racismo. Segundo ela, é importante alertar a população.
“É urgente ampliar esse debate e fortalecer as mobilizações da sociedade civil, já em curso, como a campanha Tire Meu Rosto da Sua Mira, que vem pautando o banimento total do uso do reconhecimento facial na segurança pública”.
As tecnologias de reconhecimento facial se fundamentam em uma narrativa violadora de direitos, orientada por uma lógica de encarceramento como política pública de segurança, muito distante de resolver os problemas da violência.