Representantes das secretarias de segurança pública da Bahia e de São Paulo afirmaram nesta quarta-feira (8), na Câmara dos Deputados, que os sistemas de reconhecimento facial utilizados por forças policiais nos dois estados para identificar criminosos não levam em conta características étnico-raciais, como a cor da pele. Eles participaram de audiência pública na Comissão de Segurança Pública e Combate ao Crime Organizado.
O debate foi proposto pelo deputado Capitão Alden (PL-BA), que considera importante esclarecer questionamentos sobre o uso dessas tecnologias para facilitar prisões e, em paralelo, os riscos para a intimidade, a vida privada e a imagem das pessoas.
Alden destacou o exemplo da Bahia, onde câmeras de monitoramento ajudaram a localizar recentemente mais de 1.300 foragidos da Justiça, 80% deles ligados a crimes graves, como roubo, latrocínio, homicídio, tráfico de drogas e estupro.
O deputado, no entanto, questionou o superintendente de Gestão Tecnológica e Organizacional do governo baiano, Frederico Medeiros, sobre o risco de se prender inocentes por erro do sistema que compara a semelhança entre o rosto identificado nas ruas e imagens disponíveis nos bancos de dados. “O algoritmo que é utilizado pela polícia da Bahia leva em consideração a pigmentação da pele?”, perguntou Alden.
Segundo Medeiros, os sistemas trabalham com dados matemáticos baseados em medidas de rosto e não em aspectos étnico-raciais. “As fotos, quando chegam ao nosso sistema, chegam como dados que não têm cores. O padrão de reconhecimento facial pega a distância, o formato de rosto, as dimensões do nariz, a distância do olho até a linha central do rosto”, explicou.
Raimundo Santana, que também representou o governo baiano, acrescentou que são feitas cinco checagens antes que a prisão seja concretizada. “A máquina sozinha não faz nada, ela só aponta pessoas que têm um grau de semelhança entre um registro que está na base e o que é capturado por uma câmera. Quando isso acontece, o operador faz a validação, o policial faz a validação, o delegado faz a validação e são conferidos os documentos”, disse.
Major da Polícia Militar do Estado de São Paulo, Eduardo Gonçalves, que coordena o Grupo de Tecnologia da Informação da corporação, destacou que, atualmente, a distância e a qualidade das câmeras, além da luminosidade do local, são mais determinantes para um reconhecimento perfeito do que padrões étnicos e raciais que possam constar nos sistemas.
“Eu gostaria de separar o reconhecimento facial de hoje com o reconhecimento facial que nós tínhamos há 6 anos. Um exemplo técnico disso é que, do meu rosto, ele faz algumas medições de tamanho de nariz, boca, olhos e da distância entre eles e portanto acaba não importando aspectos como cor da pele e etnia nesses tipos de ferramentas”, disse.
Elemento de prova
O presidente da Associação dos Delegados de Polícia do Brasil, Rodolfo Laterza, disse que o uso da tecnologia como elemento de prova deve ser limitado. “Principalmente como prova única, decisiva para o reconhecimento de pessoa. Nós não podemos confundir o reconhecimento de pessoa, categorizado como meio de prova no Código de Processo Penal, com o reconhecimento facial obtido por meio de sistemas de coleta de dados”, observou.
Por outro lado, representando o Ministério Público Federal, o procurador Regional da República Vladimir Aras considera um equívoco confundir o reconhecimento feito por inteligência artificial com o a identificação de pessoas para determinação de autoria e condenação criminais.
“São coisas completamente diferentes e com isso eu acho que a gente já tira um pouco do ruído nessa temática que impede a compreensão do objetivo principal desse tipo de ferramenta, que é prevenção, a captura de foragidos e a localização de pessoas desaparecidas, vítimas, uma série de finalidades”, pontuou.
Por fim, o presidente da Federação Nacional de Entidades de Oficiais Militares, Marlon Teza, defendeu o reconhecimento por imagem como um instrumento de inteligência, auxiliando operações, mas sem poder de determinar prisões. Ele propôs ainda que os bancos de dados usados sejam civis e não criminais.
“Alguns autores dizem que o ideal é usar um banco de dados civil e não criminal, para que a inteligência artificial não seja viciada naquele estereótipo policial que considera determinado tipo de perfil como suspeito”, afirmou.