Tecnologias antirreconhecimento facial aquecem os debates sobre segurança e privacidade

O debate em torno da proteção de dados e da privacidade ganhou em agosto um novo ingrediente. Pesquisadores da Universidade de Chicago, nos Estados Unidos, anunciaram o desenvolvimento de um software para ludibriar o reconhecimento facial em fotos – recurso de identificação já utilizado, por exemplo, em redes sociais.

A ferramenta foi batizada de Fawkes, em alusão ao inglês Guy Fawkes (1570-1606), revolucionário que inspirou a criação da máscara mostrada na série de quadrinhos/filme V de Vingança e adotada por manifestantes em todo o mundo. Versões do software para Windows e Mac, disponibilizadas no site do projeto, bateram mais de 175 mil downloads em poucos dias.

Basicamente, o Fawkes trabalha aplicando mudanças sutis em fotos, em nível de pixels, “confundindo” inteligências artificiais e algoritmos. As mudanças geralmente combinam algumas características faciais do usuário do programa com as de rostos de celebridades mantidas em um banco de imagens, e identificadas pelo algoritmo como suficientes para enganar os sistemas de reconhecimento facial.

Um teste efetuado pela reportagem de Security verificou que a tecnologia é eficaz. Além de o retrato manipulado pelo Fawkes apresentar modificações quase imperceptíveis em relação ao original, o Facebook não conseguiu identificar e “marcar” corretamente a pessoa por meio de seu algoritmo. De acordo com os pesquisadores, o Fawkes também conseguiu tapear os sistemas de reconhecimento facial da Microsoft, da Amazon e da empresa chinesa de tecnologia Megvii.

A garantia da privacidade das pessoas foi a principal motivação da criação do Fawkes. O site do projeto aponta como estopim a divulgação das atividades da startup americana Clearview AI. Segundo notícias, a empresa coletou mais de 3 bilhões de fotos espalhadas pela internet para a formação de um repositório de dados que, cruzado a contas do Facebook, revelaria a identidade de pessoas e ajudaria investigações policiais.

“O nosso objetivo é fazer com que a Clearview desapareça”, afirmou Ben Zhao, professor de ciência da computação na Universidade de Chicago, a uma reportagem sobre o Fawkes no jornal americano The New York Times.

Vale destacar que o Fawkes não é o primeiro e provavelmente não será o último esforço em termos de contratecnologias ao reconhecimento facial. “Existe um contexto amplo de contestação desses sistemas, e as técnicas de ofuscação são uma pauta forte do ativismo de privacidade. A ideia é a de que não basta uma contenção por leis, mas também por intervenções tecnológicas”, situa Rafael Zanatta, diretor da Data Privacy Brasil, organização que reúne uma ONG de proteção de dados e uma divisão de ensino sobre o tema. “Os softwares são os recursos mais avançados. Mas são crescentes, na internet e em eventos, as discussões sobre técnicas de maquiagem e disfarces com acessórios capazes de embaraçar processos de análise vetorial do rosto humano”.

Hoje, o reconhecimento facial encontra dois usos principais. O primeiro é em sistemas de autenticação, para verificação da identidade, confirmação da legitimidade de documentos e, consequentemente, prevenção contra fraudes. Essa é uma vertente respaldada pelo artigo 11 da Lei Geral de Proteção de Dados (LGPD) e que, portanto, deve seguir em progresso, avalia Zanatta. O outro campo de aplicação, o da segurança pública, é envolto em muita controvérsia.

Não são poucas as pessoas contrárias à vigilância por meio de sistemas de reconhecimento facial, já utilizados em dezenas de cidades brasileiras e em estudo por diversas outras. A principal alegação dos opositores é de que a tecnologia é invasiva e opressora, além de ter eficiência questionável, podendo deflagrar injustiças. Estudos internacionais verificaram, por exemplo, falsos positivos em aproximadamente 95% das análises faciais de pessoas negras.

“Em um país de desigualdade estrutural como o Brasil, é óbvio que precisamos ter muito cuidado na aplicação desses dispositivos”, pondera Zanatta, apontando os problemas recentemente ocorridos no Rio: blitze policiais auxiliadas por catálogos de fotos de procurados e foragidos provocaram prisões por engano.

Para o especialista da Data Privacy Brasil, será necessário estabelecer códigos legais para o uso do recurso, com uma possibilidade sendo o uso regrado: sempre a partir de justificativas plausíveis e permissões judiciais, com duração/alcance limitados e incluindo a elaboração de relatórios posteriores de impacto em direitos civis. A LGPD não traça claramente regras para o reconhecimento facial, mas isso não é uma lacuna. “Não se trata de uma falha, porque a LGPD não deve tratar de um problema setorial específico. Essa é uma demanda para outros projetos, como os Projetos de Lei sobre segurança pública e proteção de dados pessoais em elaboração ou tramitação no Congresso ou em âmbitos estaduais”, esclarece Zanatta.

Em certos países, como nos Estados Unidos, existem regulamentações estaduais e municipais sobre o uso do reconhecimento facial. No Reino Unido não há consenso, mas o caso Ed Bridges, de 2019 – em que a Justiça deu ganho de causa a um ativista que contestou o uso da tecnologia em praças públicas – promete frear o avanço das implantações em aparatos de monitoramento. Diante das contestações e das polêmicas, colossos como Amazon, IBM e Microsoft anunciaram recuos em projetos ligados ao tema.

A China, contudo, segue a contramão. Naquele país, onde há uma cultura forte de vigilância, com menor objeção da população, a detecção facial segue a pleno vapor. Conforme diversas reportagens na TV e na internet mostraram, o uso de soluções do gênero se intensificou na pandemia, para repressão de quem descumpria a quarentena ou para a verificação da temperatura corporal de transeuntes.

Mas, além da adoção em sistemas de segurança e ordem pública, outro eixo preocupa os defensores da privacidade: o uso comercial. No final de agosto, a partir de uma denúncia do Idec (Instituto de Defesa do Consumidor), a Senacon (Secretaria Nacional do Consumidor) aplicou uma multa à Hering. Motivo: a empresa de moda utilizou reconhecimento facial numa loja em São Paulo para captar reações dos consumidores, sem que eles soubessem. Foi a primeira condenação no Brasil por violação de direitos no uso de reconhecimento facial.

“O recado é claro: as empresas precisam avisar ao consumidor desse tipo de iniciativa, para não violarem o princípio da transparência. É preciso cuidado com segurança da informação e boa fé”, ressalta Zanatta. Para ele, a tendência é de que daqui para frente se consolide um cenário de ações e reações nos moldes do que acontece com os vírus e antivírus digitais.

Quanto às propostas como o Fawkes, tudo leva a crer numa popularização, por meio de aplicativos para smartphones ou filtros de fácil aplicação em redes como o Instagram. “Imagine essas técnicas de ofuscação sendo ensinadas por influenciadores no YouTube, por exemplo. A viralização será rápida, e a vida das companhias e startups envolvidas com reconhecimento facial não será nada fácil”, supõe o especialista.

Comentários estão fechados.

BLANK style is purely built for customization. This style supports text, images, shortcodes, HTML etc. Use Source button from Rich Text Editor toolbar & customize your Modal effectively.
Close