Especialista explica como sistema de reconhecimento facial amplia práticas racistas no monitoramento urbano

Pesquisador aponta que sistemas de reconhecimento facial, quando baseados em algoritmos enviesados, podem ampliar práticas racistas e reforçar a criminalização de populações negras e periféricas.
Por:
Aline Macedo
Edição:
Evelyn Vilhena

Leia também:

Seja ao desbloquear o celular, passar pela catraca da academia ou acessar o aplicativo do banco, o reconhecimento facial já faz parte do cotidiano de muitas pessoas, ao prometer mais segurança e praticidade.

Contudo, quando implantado de forma enviesada, esse tipo de tecnologia pode se transformar em um risco, especialmente para a população negra. É o que aponta Pablo Nunes, coordenador do Centro de Estudos de Segurança e Cidadania (CESeC). 

ASSINE NOSSA NEWSLETTER

Cadastre seu e-mail e receba nossos informativos.

Em São Paulo, esse risco ganhou uma nova dimensão com o Smart Sampa, programa de videomonitoramento que irá completar um ano em julho de 2025. O sistema opera com cerca de 25 mil câmeras espalhadas pela cidade, sob a justificativa oficial de identificar foragidos da Justiça e proteger cidadãos de crimes.

Erro que discrimina

Estudos já demonstraram o viés embutido nesses sistemas. Um dos mais conhecidos, o Gender Shades, da pesquisadora Joy Buolamwini, revelou taxas de erro significativamente maiores no reconhecimento de mulheres negras, que chegaram a 34,7%. Em contraste, para homens de pele claro, a margem de erro foi inferior a 8%.

Segundo a pesquisadora, essa discrepância ocorre porque os algoritmos são treinados, majoritariamente, com imagens de pessoas não negras e de pele clara, perpetuando assim um ciclo de exclusão e erro.

Pablo, que também é diretor do Panóptico, um projeto que monitora novas tecnologias na segurança pública no Brasil, ressalta que o reconhecimento facial já demonstrou, tanto no Brasil como em outros países, uma tendência a confundir pessoas negras com muito mais frequência do que pessoas brancas.

“Essas tecnologias possuem, desde a sua concepção, um elemento embutido que perpetua vieses. São marcadores sociais de diferença que refletem as estruturas dos locais onde foram criadas. E, inevitavelmente, quando aplicadas em cidades como São Paulo, acabam impactando principalmente jovens negros das periferias”, afirma o pesquisador, que ressalta o impacto em outras esferas, como em restrições invisíveis ao direito de ir e vir.

“Jovens negros já se auto impõem restrições de circulação para evitar abordagens policiais. Agora, com o reconhecimento facial, esse processo se amplifica.”                 Pablo Nunes, coordenador do Centro de Estudos de Segurança e Cidadania (CESeC)

A experiência do Rio de Janeiro é exemplo desse fenômeno. Em 2019, durante um projeto-piloto de reconhecimento facial, pesquisadores do CESeC mapearam a instalação das câmeras e identificaram que boa parte delas foi posicionada em pontos tradicionalmente usados para o controle de ônibus vindos das periferias até bairros considerados nobres na região, como Copacabana. “A instalação das câmeras representava uma espécie de muralha digital, que controlava o fluxo desses jovens”, aponta.

O especialista também alerta para um desdobramento ainda mais grave: a violência policial. “O reconhecimento facial fatalmente se desdobra em abordagens policiais. E sabemos que essas abordagens, muitas vezes, são violentas, resultando em violações de direitos e até mesmo em mortes.”

De acordo com uma pesquisa feita pela Rede de Observatório da Segurança, em 2019, cerca de 184 pessoas foram presas no Brasil com o uso da tecnologia, desses 90% eram negras. A Bahia, por exemplo, é o estado mais avançado no uso de reconhecimento fácil e o que mais prende.

“Isso reforça a ideia de que o monitoramento não é neutro: ele redesenha os espaços urbanos e intensifica as desigualdades já existentes.” Pablo Nunes, coordenador do Centro de Estudos de Segurança e Cidadania (CESeC)

Ausência de regulação e transparência

Pablo salienta que atualmente não há uma regulação específica para o uso de reconhecimento facial no Brasil. “O que vemos é um uso indiscriminado, que não respeita direitos humanos e tampouco garante a responsabilização das autoridades”, diz.

A Prefeitura de São Paulo afirma que a implantação do Smart Sampa seguiu a Lei Geral de Proteção de Dados (LGPD) e elaboram relatórios de impacto, porém, a falta de transparência sobre esses documentos gera desconfiança entre especialistas e organizações da sociedade civil.

“Os relatórios são opacos. A prefeitura se nega a fornecer informações detalhadas, o que impede que a sociedade civil possa realmente avaliar se há garantias de direitos humanos nesse processo”, coloca Pablo.

Por entender que os efeitos negativos dessa tecnologia superam seus benefícios, o CESeC defende que não é uma tecnologia que deveria ser utilizada. No entanto, o especialista reconhece que, diante das resistências ao debate sobre o banimento, seria necessário ao menos estabelecer uma regulação rigorosa.

“Hoje, não temos nenhum tipo de regulamentação nem municipal, nem estadual, muito menos federal. O tema precisa ser tratado com a seriedade que merece”, ressalta.

Outro ponto crucial, segundo ele, é a inclusão efetiva das vozes periféricas na discussão sobre o uso dessas tecnologias. “Já tivemos algumas experiências de abertura de debates e escutas, mas é preciso que isso seja feito de maneira séria, não como um ritual simbólico.”

Ele propõe a realização de audiências públicas e a participação ativa de organizações da sociedade civil que já vêm debatendo o tema como formas de democratizar a discussão.

Pablo também questiona a prioridade dada ao investimento em tecnologias de vigilância. “Milhões de reais são gastos com reconhecimento facial, enquanto questões urgentes como as políticas de resiliência urbana e o enfrentamento das catástrofes climáticas são negligenciadas.”

Para ele, o risco maior é que o Smart Sampa e sistemas semelhantes se consolidem como ferramentas de controle social e criminalização de populações vulneráveis, sob a justificativa de segurança pública, sem o devido debate sobre seus reais impactos.

Autor

ASSINE NOSSA NEWSLETTER

Cadastre seu e-mail e receba nossos informativos.