Conversa sobre segurança pública e inteligência artificial com Thayane Guimarães

Data:

Thaynara Santos

A atual proposta de segurança pública é programar câmeras com sistema de reconhecimento facial instaladas em pontos estratégicos nas cidades como uma forma de identificar criminosos e terroristas. Na vida cotidiana, podemos observar também alguns equipamentos que utilizam a biometria facial, no ônibus, no metrô, em outros espaços públicos. Inteligência artificial (ou artificial intelligence) é a capacidade das máquinas de pensarem, aprenderem e decidirem por elas mesmas, simulando a mente humana.

A biometria facial utiliza características e proporções do rosto para realizar o mapeamento. Porém, essa tecnologia desperta dúvidas  a respeito da eficácia e da intencionalidade. Em julho, uma mulher foi identificada erroneamente como sendo Maria Lêda Félix da Silva, presa por homicídio em 2015 e que cumpria a pena em regime semiaberto desde sua condenação. A mulher confundida com a presa estava trabalhando na Zona Sul do Rio de Janeiro, quando câmeras de reconhecimento facial “identificaram” seu rosto. 

Eficácia

De acordo com a Polícia, o sistema de reconhecimento facial é capaz de identificar foragidos e veículos roubados, e  facilitar a repressão a crimes e delitos. O sistema começou, em caráter experimental, a ser utilizado no Carnaval, quando foram instaladas 28 câmaras em Copacabana. Em julho o sistema foi expandido para o bairro do Maracanã, na Zona Norte, onde foram instaladas 12 câmaras.

O sistema é integrado ao Centro Integrado de Comando e Controle (CICC) da Polícia Militar que recebe as imagens em tempo real e, através de um software, compara as imagens aos bancos de dados da Polícia Civil.

Inteligência artificial alimentada pelo preconceito humano 

Thayane Guimarães é jornalista formada pela Universidade Federal Fluminense e pesquisadora nas áreas de segurança pública, tecnologias cívicas, governo aberto, comunicação popular, democratização das comunicações e direitos humanos. Atualmente, compõe o quadro de pesquisadores do Instituto de Tecnologia e Sociedade do Rio (ITS Rio), que estuda o impacto e o futuro da tecnologia no Brasil e no mundo. Neste sábado (14), a jornalista participou da mesa “A tecnologia tem cor e sexo?”, que discutiu sobre a influência preconceituosa nas tecnologias de inteligência artificial, no evento-festa CRIPTOFUNK, que aconteceu na Maré. 

Maré de Notícias Online – A biometria facial está sendo implementada como uma ferramenta tecnológica na área de segurança pública no Rio de Janeiro ou em todo o Brasil?

Thayane Guimarães – Inicialmente, a tecnologia de reconhecimento facial começou a ser implementada, ainda no formato de testes, durante o carnaval deste ano (2019) em Salvador e no Rio de Janeiro. No Rio, as primeiras 28 câmeras foram instaladas, de acordo com as polícias civil e militar, em pontos estratégicos do bairro de Copacabana, e a quantidade de câmeras já está aumentando. Com o crescimento do número de governantes que querem usar a tecnologia para reduzir a violência, a tendência é que ela seja, aos poucos, incorporadas por outros estados. A implementação no Brasil segue um movimento global. Não apenas na China o reconhecimento facial é usado em larga escala, como também no País de Gales e na Alemanha. Já nos EUA, algumas cidades como São Francisco têm feito a opção contrária: aprovaram legislações que proíbem o uso de reconhecimento facial por agentes públicos, incluindo a polícia, com a defesa de que ainda não existem estudos e confiança suficientes de que a implementação traz resultados positivos no campo da segurança.

Maré de Notícias Online – O reconhecimento facial ainda está em período de testes mas já houve casos de prisões precipitadas. Essa tecnologia pode ser utilizada para outros fins, como perseguições a ativistas ou personalidades que discutem segurança pública e direitos humanos no Brasil?

Thayane Guimarães – Aqui, existem três elementos que dialogam entre si e precisam ser analisados: taxa de erro, bases de dados da polícia e armazenamento de dados pelo sistema. Sobre o primeiro deles, é certo que a tecnologia de reconhecimento facial via inteligência artificial ainda é bastante limitada. A grande maioria das pesquisas indica que a taxa de acerto do reconhecimento facial, em ambientes públicos, é muito baixa, em alguns casos da ordem de 1 para 100. Fazendo uma comparação, é como se para cada imagem sua existissem outras 99 que a máquina vai confundir com você. Se uma dessas 99 pessoas estiver sendo procurada, você pode ser parado. Diferentes estudos internacionais com diferentes empresas trazem números de 81% até 92% de falsos positivos, ou seja, de pessoas erroneamente identificadas como procuradas pelas bases policiais. Por exemplo, um experimento recente feito pela American Civil Liberties Union testou o sistema de reconhecimento facial da Amazon e 22 congressistas estadunidenses foram identificados como possíveis criminosos. (http://www.wired.com/story/amazon-facial-recognition-congress-bias-law-enforcement/). 

O segundo ponto é igualmente preocupante. A base de dados que está sendo utilizada no Rio de Janeiro para a implementação da tecnologia são o banco de procurados/foragidos (Banco Nacional de Monitoramento de Prisões) e, também, a base do Detran (já que também está sendo feito o monitoramento de placas de carros para identificação de veículos roubados). O problema, que ganhou mais visibilidade com este caso da mulher confundida em Copacabana, é que esta base de dados utilizada pela Polícia Civil está desatualizada a ponto de ainda constar pessoas já presas ou, até mesmo, que já morreram como procuradas. Ou seja: além da falha no reconhecimento, ainda existe uma enorme falha no banco de dados da Justiça. 

E, por último, sobre o armazenamento dos dados. Talvez esse seja o ponto que está mais ligado diretamente com a pergunta sobre a tecnologia ser usada para perseguições políticas. Para que não exista possibilidade disso acontecer, nenhum dado (locais de circulação, por exemplo) das pessoas que têm suas faces “lidas” pelo sistema pode ser armazenado no banco de dados das polícias ou da empresa responsável pela construção da tecnologia. A afirmação do Subcoordenador de Assuntos Estratégicos da Secretaria de Polícia Militar, Alexandre Leite, é de que com exceção dos casos em que acontece o match (quando uma pessoa na rua é identificada como alguém possivelmente procurado), as câmaras não gravam ou armazenam nenhum tipo de informação dos cidadãos que circulam pelas ruas. O fundamental, neste processo, é que não basta apenas exigir da sociedade confiança nas instituições do Estado de que isso realmente vai acontecer. É preciso que toda a construção e implementação da tecnologia sejam feitas com base em transparência e participação de especialistas da sociedade civil para garantir o respeito aos direitos humanos e liberdades. 

Maré de Notícias Online – A biometria facial pode ser induzida a uma leitura racista da população brasileira, em sua maioria mestiça?

Thayane Guimarães – Sim, existe essa possibilidade. Um dos grandes debates em torno das tecnologias de reconhecimento facial é o que chamamos de enviesamentos racistas, quando, por exemplo, os algoritmos construídos não reconhecem faces de pessoas negras ou não são capazes de fazer uma identificação correta. Um dos casos recentes e alarmantes foi o aplicativo de fotos da Google que colocou a legenda de “gorilas” na foto de um casal de pessoas negras. No caso da identificação dos parlamentares estadunidenses como criminosos, 40% das falsas correspondências também eram de pessoas negras. O estudo mais sólido sobre isso, feito no início deste ano pelos pesquisadores do MIT Joy Buolamwini e Timnit Gebru, mostrou que quando vários algoritmos de reconhecimento facial foram usados para identificar o gênero, eles classificaram as mulheres de pele escura como homens quase 40% das vezes, enquanto que a taxa máxima de erro para os homens brancos foi inferior a 1%. Isso acontece na maioria das vezes porque faces mais escuras são pouco representadas no conjunto de dados usados por essas empresas ??para treinar a inteligência artificial, deixando o reconhecimento facial infinitas vezes mais impreciso e errôneo quanto a rostos de pessoas negras. Quando apenas pessoas brancas são usadas para treinar fatores como distância de pontos entre olhos e narizes da tecnologia, ela não sabe reconhecer a diversidade de outros tipos de rostos e peles. Isso faz com que, no caso brasileiro da segurança pública, a taxa de erro no match (os falsos positivos) possa ser muito maior e que as maiores vítimas de identificações equivocadas sejam pessoas negras. 

Maré de Notícias Online – Quem está investindo na implantação dessa inteligência no Rio, a Polícia Militar ou a Polícia Civil? Quais os custos dessa tecnologia? 

Thayane Guimarães – A liderança da implementação parece ser da Secretaria de Polícia Militar. As afirmações são de que as imagens do match chegam e são analisadas, primeiramente, por operadores da Polícia Civil (quem tem acesso aos dados do sistema de procurados) e, então, as viaturas de patrulhamento urbano da PM são acionadas. Quanto os custos, ainda não temos informações sobre o quanto custará aos estados para usar a tecnologia. Mas uma coisa é certa: o fator eficiência também precisa ser levado em conta. Com a quantidade de falsos positivos que são gerados, a chance da tecnologia gerar muito custo de deslocamento de viaturas e pessoal de forma desnecessária é alta.

O Instituto de Tecnologia e Sociedade do Rio (ITS Rio) é um instituto de pesquisa independente e sem fins lucrativos, localizado no centro do Rio. (www.itsrio.org

Compartilhar notícia:

Inscreva-se

Mais notícias
Related

Como se cadastrar no CadÚnico?

O Cadastro Único (CadÚnico) é um sistema do Governo Federal do Brasil que reúne informações socioeconômicas das famílias de baixa renda.

Vale a pena ler de novo: 3 matérias sobre Funk

Dia 12 de julho, o Dia Nacional do Funk uma data dedicada a reconhecer e valorizar a importância cultural e social do funk no Brasil. O Vale a Pena Ver de Novo de hoje destaca três matérias produzidas pelo Maré de Notícias sobre o funk.