Ainda mais grave do que a questão do uso de dados pessoais, avalia o especialista, é a falta de regras para definir a eficácia. “Não há como medir se funcionam, para diferentes formatos de rosto ou tom de pele. Mesmo que o desenvolvedor queira prestar contas da eficácia de seu produto, ele não saberia a quem se apresentar”. 3g5v5c

Mariana Rielli, coordenadora-geral de projetos da Associação Data Privacy Brasil de Pesquisa, lembra que um varejista de roupa já foi questionado judicialmente por usar câmeras para identificar as reações faciais das pessoas a seus produtos. Ela explica que esse é um caso de uso mais amplo e genérico da tecnologia. O outro objetivo comum é fazer a autenticação para confirmar a identidade da pessoa, por exemplo, no vestibular da Fuvest ou em ônibus públicos, que assim confirmam que a pessoa de fato tem direito à gratuidade.

“Podem acontecer eventuais desvios de finalidade, informações coletadas por meio de reconhecimento facial, o indivíduo autorizar para uma finalidade e a imagem ser usada para outro fim”, explica. Mariana destaca que a Lei Geral de Proteção de Dados (LGPD) considera os pontos da face e as informações extraídas do rosto dados sensíveis, e, portanto, protegidos pela legislação.

Mas a LGPD abre uma exceção para caso de segurança nacional e perseguição a criminosos, e prevê que essa questão será regulamentada pela chamada LGPD Penal, em elaboração por um grupo de juristas. “A primeira versão dessa lei veda o monitoramento sistemático sem autorização judicial”, informa a especialista.

Viés racial 5o4c5p

Com relação à eficácia dessas ferramentas, Joy Buolamwini, do Instituto de Tecnologia de Massachusetts (MIT), já identificou um viés racial em sistemas comerciais de reconhecimento facial. Seu trabalho apontou que a margem de erro para homens de pele clara é de 0,8%. Para mulheres de pele negra alcança até 34,7%.

O estudo do MIT lembra que as companhias americanas que desenvolvem tais sistemas dizem alcançar 97% de acertos. Mas os dados foram gerados a partir de uma amostragem com 77% de homens e 83% de pessoas brancas.

Ao submeter suas próprias fotos aos três softwares testados, Joy, que é mulher e negra, viu os sistemas não a identificarem como pessoa, ou então errarem seu gênero de forma consistente – uma falha grave quando se considera que tais sistemas vêm sendo usados com o objetivo de identificar possíveis criminosos.

No Brasil, o Instituto Igarapé identificou há dois anos que 37 cidades já utilizavam softwares de reconhecimento facial. Mais de metade, 19, haviam sido lançadas entre 2018 e 2019. O Rio de Janeiro implementou seu sistema durante o carnaval de 2019. Em 2020, o governo de São Paulo inaugurou o Laboratório de Identificação Biométrica, Facial e Digital da Polícia Civil.

O instituto também realizou um levantamento com o Data Privacy Brasil Research que avaliou a regulamentação da prática em países desenvolvidos. Na Inglaterra, aponta o trabalho, não há “instrumento legal específico voltado para a regulação desse tipo de tecnologia, mas sim uma série de documentos estratégicos e recomendatórios”.

Nos Estados Unidos, as tentativas de regulamentação acontecem principalmente nos estados e municípios. Já na França, “cada uso deve ser previamente autorizado por um decreto do Conselho de Estado”.

Crescimento acelerado do reconhecimento facial a2qw

Grandes empresas americanas, como IBM, Amazon e Microsoft, reduziram ou suspenderam seus investimentos em programas do gênero, enquanto investem em melhorias e aguardam por regulamentações mais claras. Já na China, o reconhecimento facial é utilizado de forma indiscriminada, para multar pessoas que atravessam a rua fora da faixa, ou para mapear os caminhos percorridos por pessoas que discordam do regime.

À parte de todas as tentativas de regulamentação, o mercado de softwares de reconhecimento facial vem aumentando rapidamente. Relatório divulgado pela empresa ReportLinker em dezembro prevê que esse mercado deverá saltar de US$ 3,8 bilhões em 2020 para US$ 8,5 bilhões em 2025, um crescimento médio anual da ordem de 17,2%. Sinal de que esse é um caminho sem volta, apesar dos riscos enormes para a privacidade e possíveis erros nas ações de segurança pública.

VEJA TAMBÉM: