Reconhecimento facial para segurança avança na América Latina mesmo sem normas claras

JOTA.Info 2021-05-03

Responsável por um terço dos homicídios mundiais, mesmo com 9% da população, a América Latina é uma terra de oportunidades para o uso de novas tecnologias no combate ao crime e à violência urbana. Gestores públicos, ávidos por respostas rápidas, tendem a recorrer a tecnologias como o reconhecimento facial para amainar o sentimento de insegurança — e colher votos. Do ponto de vista normativo, uma amostra de 11 países da região mostra ausência generalizada de garantias de transparência ou de governança para tais aplicações, o que coloca em risco direitos fundamentais dos cidadãos. 

As ameaças vão desde o tolhimento ao exercício de direitos, como a liberdade de expressão, até o reforço de desigualdades sociais e raciais que já marcam o sistema penal. 

“Estados e municípios têm sido rápidos em implementar essa tecnologia, porque parece que haverá um resultado positivo. Isso os tornaria bem vistos pela população, que não está totalmente preocupada com abusos. A preocupação com direitos é pequena, mas haver embasamento jurídico é importante como garantia de que o uso será excepcional”, diz Ivar Hartmann, professor associado do Insper. Ele é coautor de estudo, ao lado de Bruna Franqueira e Lorena Abbas, que mapeou uso da tecnologia em 11 países da América Latina, publicado em janeiro passado.

Advertências sobre o risco de uso de inteligência artificial para segurança pública não são recentes, mas têm ganhado novo ânimo conforme suspeitas de aplicação indevida e de imprecisão se avolumam.

Ferramentas de reconhecimento facial são alvo de questionamento sobretudo pela tese de que elas carregariam vieses inconscientes especialmente danosos para minorias raciais.

Após um aplicativo de biometria não ser capaz de identificar seu rosto a menos que ela usasse uma máscara branca, a cientista de dados negra Joy Buolamwini, do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, investigou como essas tecnologias contêm estigmas. A busca rendeu o documentário Coded Bias, lançado pela Netflix na semana passada. 

Na identificação de rostos mulheres negras retintas, houve imprecisão de 21% no software da Microsoft e 35% no da IBM, a partir de amostra de cerca de 1,2 mil rostos com diferentes traços étnicos, constatou a cientista. Entre mulheres branca, essas taxas caíram para 1%, no software da Microsoft, e 7%, no da IBM.

Não é preciso destrinchar muito os dados para se pensar as graves consequências no uso desses algoritmos para detectar, a partir do rosto de uma pessoa, a sua identidade. As chances de problemas de responsabilização crescem e pessoas negras – e outras etnias que não estejam suficientemente representadas no banco de dados que alimenta o algoritmo – poderiam ser prejudicadas pela tecnologia usada em segurança pública.

“Não há dados que nos permitam saber a precisão do que está em atividade no Brasil, mas temos indícios suficientes para acreditar que isso poderia acontecer”, diz Hartmann, do Insper. 

Reconhecimento facial tende a crescer

Em maior ou menor grau, esse tipo de tecnologia é usado em todos esses países em nível experimental ou com impactos mais abrangentes. E a expectativa é que a demanda por esse tipo de soluções cresça nos próximos anos – relatório da Global Market Insights de 2020 prevê aumento de 18% no mercado de reconhecimento facial, puxado sobretudo pela vigilância.

O dado é especialmente significativo para a América Latina, já que, nos Estados Unidos, outro mercado em potencial, boa parte dos estados proíbe o uso até que se tenha mais informações sobre o nível de confiabilidade das tecnologias. Por lá, empresas como Amazon, IBM e Microsoft já chegaram a interromper acordos com polícias até haver mais clareza. 

Na América Latina, a segurança pública consome 5,4% do PIB, frente aos 3,3% que dispendem em média países da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), estimou o Banco Interamericano de Desenvolvimento (BID) em 2019.

O investimento tem sido insuficiente para lidar com a questão: a região concentra 33% dos homicídios do planeta, embora tenha apenas 9% da população global. Como constata o BID, há ineficiência no destino dos gastos, a começar pelo fato de que as polícias concentram cerca de 60% dos recursos de segurança, seguida pela justiça criminal. 

Um dos países que usam a biometria há mais tempo na região, a Argentina ainda é incapaz de lidar com todas as problemáticas dela, além de não ter regulamentação ampla sobre o tema.

Desde 2019, a capital Buenos Aires tem um sistema de identificação de pessoas foragidas por meio de reconhecimento facial, instalado inicialmente em 300 das cerca de 7 mil câmeras de vigilância espalhadas pela cidade. Nos três meses seguintes à implantação, ao menos 170 pessoas foram presas com ajuda dessa tecnologia.

Na mesma época, um homem passou seis dias preso após ter sido identificado de forma equivocada, mas as autoridades locais negaram que o erro tenha sido ocasionado pelas câmeras.

A resolução que estabeleceu o sistema prevê o cumprimento de garantias como o direito à imagem, à intimidade e à privacidade, além de que ele seja guiado pela pretensão de intervenção mínima. Há uma ação no Supremo argentino para definir se o sistema da capital fere liberdades constitucionais. Publicada em 2000, a lei de proteção de dados pessoais argentina dispensa o consentimento como requisito para uso em segurança pública – esse tipo de dispositivo é comum em outras legislações latinas, diferenciando o uso para defesa e segurança. 

É o caso do Panamá, em que a lei nacional sobre dados entra em vigor neste ano, mas salvaguarda uso para julgamentos e sanções para fins penais. Na cidade de Colón, na costa panamenha, foi criado um centro de operações de segurança com quase 300 torres de vigilância por vídeo, com tecnologia de reconhecimento facial disponível. O sistema foi financiado pelo governo da China.

No Panamá, a situação é delicada por um histórico de falta de transparência na vigilância. Durante o governo do presidente Ricardo Martinelli, entre 2009 e 2014, empresas foram contratadas ilegalmente para adquirir tecnologias para interceptar comunicações. Em 2017, o Supremo Tribunal de Justiça do Panamá entendeu que o ex-presidente havia usado recursos públicos para espionar ilegalmente ao menos 150 oponentes políticos. 

Mesmo o México, que conta com diferentes regulações a depender da localidade e onde as leis nacionais de proteção de dados não detalham o uso biométrico, os esforços estão concentrados na questão da privacidade, e não em contornar possíveis fragilidades sociais.

Também há exceção para uso em contexto de segurança e transmissão entre diferentes órgãos sob essa finalidade. A ausência de clareza sobre quem gerencia os bancos de dados e quem tem acesso a eles é uma das principais deficiências dos sistemas, de modo generalizado.

Governança

Nesse sentido, no Peru, o registro nacional de identificação e registro civil coleta, desde 2013, informações sobre as faces dos cidadãos, mas não se sabe todos os órgãos que podem usá-los na prática.

“Além de entender quais bancos de dados serão usados, para evitar vieses ou que eles sejam geridos por países não democráticos, precisamos saber como será feita essa governança. Isso significa delimitar claramente quem poderá acessá-los, incluindo quais agentes públicos”, afirma Christian Perrone, coordenador da área de Direito e Tecnologia do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS).

Assim, o foco regulatório seria também na implementação e execução, e não apenas no design da tecnologia em si. Outro alerta do professor é sobre o risco de uso para inibir manifestações políticas – uma foto comum poderia ser usada com esse fim, por exemplo. 

Ademais, diferentemente do uso de outras tecnologias, os cuidados acerca de reconhecimento facial não se restringem à garantia de intimidade e, na segurança pública, a ideia de consentimento demanda mais nuances.

A Lei Geral de Proteção de Dados (LGPD), aprovada em 2018 e em vigor desde o ano passado, estabeleceu o tratamento de informações pessoais e de natureza sensível (o que inclui precisamente dados biométricos, incluindo da face) na segurança pública como caso a ser tratado a parte, com a necessidade de uma lei específica. Tal norma deve ter os mesmos princípios da LGPD, como finalidade, necessidade, transparência, segurança e não-discriminação, mas calibrados para o contexto penal. Por si, o marco também garante ao titular dos dados os direitos à explicação e à revisão das decisões tomadas unicamente com base em tratamento automatizado, mas há margem para que a conferência não seja necessariamente realizada por uma pessoa. 

Após a lei geral, passou então a ser discutida a ideia de uma LGPD penal. No ano passado, a questão foi alvo de grupo de trabalho entre juristas no Congresso para elaborar um anteprojeto de lei para tratar o tema de forma ampla. Ele foi entregue em novembro à Câmara dos Deputados pelo presidente da Comissão de Juristas, o Ministro do Superior Tribunal de Justiça (STJ), Néfi Cordeiro. 

“Entre as propostas, está a atuação do Conselho Nacional de Justiça nessa regulação, e não apenas da agência nacional de proteção de dados. Vemos que poderia haver uma concorrência entre as autoridades, o que pode ser problemático”, explica Priscilla Silva, pesquisadora do ITS, que analisou o anteprojeto em levantamento publicado em março.

Também ficaria vedada a vigilância em massa, mas não há definição clara sobre como seria a mencionada “persecução penal individualizada”. A proposta ainda não foi incorporada a um Projeto de Lei. 

Aumento do uso no Brasil

A ausência de legislação não barrou o uso de ferramentas de inteligência artificial, sobretudo de identificação de faces, por governos locais. Levantamento do think tank de segurança pública Instituto Igarapé, mostrou que 37 cidades usavam tecnologias de reconhecimento facial em 2019. Além disso, há aplicações do tipo desde, pelo menos, 2011.

No Rio de Janeiro, sistema de monitoramento por câmeras incluindo reconhecimento facial faz parte das políticas de segurança pública desde 2019, quando foi iniciado teste durante o carnaval; em julho daquele ano, houve expansão para 140 câmeras e, no mesmo mês, foram noticiados dois casos de identificação indevida. 

Também há discussões específicas sobre a implementação tanto no Congresso quanto em assembleias legislativas estaduais. Estudo em parceria entre o Igarapé e a associação de pesquisa em gestão de dados Data Privacy, realizado no ano passado, contou 14 projetos em cinco estados sobre empregar reconhecimento facial em serviços públicos, sobretudo segurança. É importante perceber que, nessa instância, a finalidade da tecnologia seria de identificação, e não apenas autenticação.

“São necessárias obrigações específicas, porque a sensibilidade de um dado biométrico está no fato de que ele é inalterável. Uma possibilidade seria definir o uso para investigações específicas, e não de modo irrestrito“, diz Mariana Rielli, coordenadora de projetos do Data Privacy. Esse emprego da tecnologia, com imagens obtidas por câmera de segurança, também é menos preciso. De acordo com a pesquisa, em Minas Gerais e Paraná, que mencionam tecnologias ‘’trazidas da China’’, há previsão de que medidas adequadas seriam tomadas na hipótese de desvio de função. Isso denotaria o reconhecimento de um risco no emprego da tecnologia, mas as respostas a isso não são apresentadas. 

Mais próxima de uma regulamentação detalhada sobre o tema tem o Distrito Federal, com a Lei nº 6.712, sancionada em novembro passado, que estabelece permissão para uso apenas em em equipamentos e espaços públicos, com placas que informem a existência do sistema. As imagens coletadas podem ficar armazenadas por cinco anos e as informações geradas devem ser, obrigatoriamente, revisadas por um agente de segurança antes de uma eventual ação. É permitido que as informações obtidas sejam compartilhadas com órgãos de segurança pública de outros estados, mas o destinatário é responsável pela utilização. Evidentemente, a questão é que a maior parte dos estados não estabelece regras para essa análise. 

Não apenas o uso da tecnologia tem sido permitido, mas também incentivado em certa medida. A Portaria nº 793 do Ministério da Justiça e Segurança Pública, de 2019, autoriza o uso de dinheiro do Fundo Nacional de Segurança Pública para a implantação de soluções de reconhecimento facial, entre outras tecnologias de inteligência artificial. “Usar esses recursos não significa ampliar eficiência ou reduzir gastos públicos. Inclusive, o contrário é provável, na medida em que criamos novos problemas se tivermos ferramentas que não comtemplam a diversidade brasileira”, afirma Perrone, do ITS. 

Outra questão que começa a ser confrontada é de que modo, além de não contribuir para melhora dos níveis de violência, os sistemas de vigilância abram portas para o acesso não apenas à face e à identidade de pessoas, mas também o cruzamento dessa informação com diversos outros dados biográficos, incluindo de familiares. Em última instância, eventual risco seria emprego para controle político. Exemplo dessa aproximação são dois decretos presidenciais de 2019 (Decreto nº 10.046/201916 e Decreto nº 10.047/201917) para a criação de uma grande base unificada de dados pessoais dos cidadãos a ser compartilhada entre órgãos do governo federal e também do Legislativo e Judiciário.