Mesmo com pouco debate e regulamentação, tecnologias de reconhecimento facial já são usadas em massa no mundo inteiro — e se intensificam em meio à pandemia do novo coronavírus

Tecnologias de reconhecimento facial usam inteligência artificial para identificar rostos humanos (Foto: Wikimedia Commons)
Tecnologias de reconhecimento facial usam inteligência artificial para identificar rostos humanos (Foto: Wikimedia Commons)

“Sempre aqueles olhos observando a pessoa e a voz a envolvê-la. Dormindo ou acordado, trabalhando ou comendo, dentro ou fora de casa, no banho ou na cama — não havia saída”, escreveu George Orwell no livro 1984, que completou 71 anos no último dia 8 de junho. Em 2020, talvez não estejamos exatamente no mundo distópico do Big Brother criado pelo escritor inglês, mas nunca corremos tanto risco de nos aproximarmos dele.

Um mapeamento da Surfshark, empresa que desenvolve ferramentas de proteção de privacidade na internet, revela que 98 países atualmente usam tecnologias de reconhecimento facial em algum tipo de vigilância pública. Divulgado em maio, o levantamento foi feito baseado em dados de 194 países e aponta que, além dos que já utilizam, 12 aprovam, mas ainda não implementaram esse tipo de tecnologia; 13 consideram aplicá-la; 68 não usam e três a proíbem.

Criada nos anos 1960, a tecnologia que usa computadores e algoritmos para reconhecer rostos humanos ganhou escala há pelo menos uma década, muito graças ao avanço das redes sociais e da internet. Com milhares de pessoas disponibilizando voluntariamente suas fotos na internet, existe hoje um banco de dados com bilhões de imagens que servem para treinar redes de inteligência artificial a detectar e reconhecer rostos.

As possibilidades são inúmeras, e você certamente já se deparou com alguma delas no dia a dia — segundo o levantamento da Surfshark, 92% dos países na América do Sul usam reconhecimento facial, a maior porcentagem entre os continentes. Do seu filtro favorito no Instagram ao desbloqueio de celulares, até a identificação em aeroportos (o Brasil está entre os países que têm um sistema automatizado de leitura de passaportes), o reconhecimento facial é usado em algum nível. Há também casos mais “avançados”, como o do homem chinês que foi sequestrado quando criança e, graças à tecnologia de reconhecimento facial utilizada nas buscas, reencontrou os pais depois de 32 anos; ou do carnaval de Salvador de 2020, no qual câmeras de segurança identificaram e ajudaram a capturar 42 foragidos da Justiça.

“Passamos de uma fase de detecção, que era o que tínhamos com as câmeras digitais antigas que viam um sorriso e tiravam a foto, para a de reconhecimento propriamente dito, de saber de quem é aquele rosto”, explica o especialista em tecnologias emergentes Diogo Cortiz, professor da Pontifícia Universidade Católica de São Paulo (PUC-SP). “Isso está muito atrelado à inteligência artificial aplicada ao processamento e tratamento de imagens.”

Adeus, privacidade
Na pandemia do novo coronavírus, nem os rostos mascarados frearam o avanço da tecnologia — pelo contrário: países como China e Rússia apostaram nela para rastrear pessoas que “furaram” a quarentena, e começaram a treinar os algoritmos para identificar indivíduos potencialmente infectados com base na temperatura corporal. As ferramentas também têm sido apontadas como alternativas que não exigem contato físico para a autenticação e identificação em um mundo que busca medidas para frear o contágio.

A expectativa é que esse mercado, estimado em US$ 3,2 bilhões em 2019, alcance US$ 7 bilhões em 2024, segundo análise da empresa de pesquisa indiana MarketsandMarkets. Dele, participam empresas como o Facebook — que passou a usar, em 2019, a tecnologia com todos os seus mais de 2 bilhões de usuários para facilitar a identificação e marcação em fotos  —, além de Apple, Google, Amazon e Microsoft.

O problema é que existe uma linha tênue entre o reconhecimento facial “benigno” e o perigo que a sociedade se torne aquela imaginada por Orwell, sem mais privacidade, “com exceção dos poucos centímetros que cada um possui dentro do crânio”, nas palavras do escritor. Como garantir que a tecnologia não será usada para perseguição política, como temiam os manifestantes nos protestos contra o governo chinês em Hong Kong em 2019? Ou para avaliar os efeitos de uma publicidade, como foi feito pelo metrô de São Paulo em 2018?

Neste mês, um aplicativo russo envolvido em polêmicas sobre roubo de dados voltou a fazer sucesso entre brasileiros, incluindo celebridades. Em 2019, o FaceApp — que usa inteligência artificial para modificar selfies, “mudando” o sexo da pessoa ou sua idade — foi alvo de investigação do FBI, nos EUA, que classificou o aplicativo como uma “ameaça”. Mas a Wireless Lab, empresa responsável pelo app, afirmou em posicionamento divulgado na época que não “vende ou compartilha os dados com terceiros”.

“A tecnologia traz benefícios, mas também muitos desafios de governança e comportamento”, diz Cortiz. A pesquisadora em democracia e tecnologia Thayane Guimarães, do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS), alerta para a ausência de regulamentação. “O principal problema é a falta de uma legislação específica que garanta as liberdades individuais e a transparência no uso da tecnologia e proteção de dados pessoais.”

A desconfiança sobre o que pode e o que não pode ser feito é grande. Na Europa, 80% das pessoas não gostam da ideia de compartilhar os dados de seus rostos com autoridades. Para o professor da PUC-SP, a falta de regulamentações voltadas para o reconhecimento facial pode gerar uma sensação de que “se não está proibido, é porque está permitido”.

Antes de a pandemia se transformar na principal pauta de debates atuais, as discussões sobre a tecnologia estavam aquecidas. Em outubro de 2019, ao menos 40 festivais de música, entre eles Lollapalooza, Coachella e SXSW, iniciaram um movimento contra o uso de reconhecimento facial nos eventos. Em janeiro deste ano, a cidade de Cambridge, berço de uma das instituições de tecnologia mais importantes do mundo, o Massachusetts Institute of Technology (MIT), e da Universidade Harvard, proibiu a tecnologia para vigilância municipal. Outras cidades norte-americanas e hubs de tecnologia, como São Francisco e Oakland, também adotaram medidas semelhantes.

Vigilância enviesada
Além do debate central sobre a privacidade, há dúvidas em relação à precisão dos sistemas, ainda que a tecnologia venha evoluindo. Em 2018, o Instituto Nacional de Padronizações e Tecnologia do Departamento do Comércio dos EUA (NIST, na sigla em inglês) testou 127 algoritmos de 45 desenvolvedores e descobriu que, quando havia imagens de alta qualidade para comparação, os melhores algoritmos só falharam em 0,2% das vezes, um resultado 20 vezes melhor do que no teste semelhante feito em 2014. Mas há diferenças significativas entre ambientes controlados e as “praças públicas”: uma coisa é o celular reconhecer o rosto do dono, outra é aquele mesmo rosto ser identificado em uma multidão de dezenas ou centenas de pessoas.

Essa tecnologia também permanece suscetível a uma programação humana que pode ser bastante enviesada. Em um experimento muito citado para mostrar que as minorias podem ser prejudicadas, a ONG norte-americana American Civil Liberties Union revelou que o programa de reconhecimento facial da Amazon erroneamente identificou 28 membros do Congresso dos EUA como criminosos cadastrados em uma base de fotos pública. Quase 40% dos resultados errados envolveram pessoas negras — algo desproporcional, já que somente 20% dos congressistas são negros.

No MIT, pesquisadores identificaram que algoritmos para identificar o gênero com base no rosto classificaram mulheres de pele escura como homens em quase 35% das vezes. Para os homens com pele clara, a taxa de erro era menor que 1%. “O número de falsos positivos muito alto gera constrangimentos e apreensões, e pode aprofundar o racismo já muito presente na nossa sociedade”, diz Guimarães. A pesquisadora lembra que, no caso brasileiro, há ainda o agravante de que por serem produzidos principalmente na Europa, na Ásia e nos Estados Unidos, os algoritmos passaram por “treinamentos” que muitas vezes não correspondem às nossas características físicas ou hábitos.

“A gente sabe que não tem mais como dar 20 passos atrás e impedir completamente a implementação do reconhecimento facial”, pondera Guimarães. “Mas é importante sempre se perguntar e pensar nas gerações futuras, ter noção de que uma medida que a gente tome hoje pode fazer com que os nossos filhos não vivam mais sem ter suas emoções monitoradas.” Ou, pior, que esse futuro seja como o descrito por George Orwell: igual a imagem de uma bota prensando um rosto humano para sempre.

Fonte: Galileu

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui