[PT] Um aviso importante sobre a privacidade e segurança de dados do Brasil - An important warning about data privacy and security in Brazil
- Maria Alice Maia

- Jul 14
- 9 min read

[Note for Non-Portuguese Speakers]: This article is in Portuguese because it invites Brazilian readers to take part on a participatory government process exclusively opened for Brazilian citizens, regarding the LGPD, Brazilian's equivalent to the GDPR. If you are interested in the content, feel free to reach out or to translate using your browser auto translation feature.
A ANPD (Autoridade Nacional de Proteção de Dados) está com uma consulta pública aberta sobre como empresas poderão usar nossos dados biométricos (rosto, voz, impressão digital). Isso afeta tudo: desde o reconhecimento facial no supermercado e no estádio, até a biometria que usamos em bancos e serviços de segurança privada. E vale lembrar que biometria vazada não é igual a senha hackeada: se não estiver bem criptografada, não conseguimos trocar nossos rostos e digitais.
Esta é a nossa chance de influenciar a criação de regras que nos protejam de verdade. Por lei, a ANPD é obrigada a analisar e responder a TODAS as contribuições que receber. Por isso, quanto mais gente participar com propostas alinhadas, mais força teremos para garantir que eles reflitam sobre uma regulação que proteja de verdade o cidadão.
A consulta se encerra no dia 1º de agosto, portanto, espalhem nos seus grupos.
Para facilitar, criei resumos das minhas respostas para as perguntas-chave, baseadas em uma regulação que exige transparência, consentimento real e o fim de "letrinhas miúdas" e do “só queria usar o chat, mas tenho que aceitar que vendam meus dados para um exército de “parceiros” pra conseguir finalizar meu cadastro”.
*As sugestões são tecnicamente e economicamente viáveis, e majoritariamente baseadas em legislação vigente no Brasil ou na Europa.
Se tiverem alguma dúvida sobre as propostas ou quiserem sugerir algum ponto, vamos falar!*
COMO PARTICIPAR:
1. Acesse o link da consulta: https://www.gov.br/participamaisbrasil/ts-dados-biometricos
2. Copie e cole as respostas que preparei (ou escreva as suas!) nas perguntas correspondentes (principalmente as questões 2, 4, 11, 15, e 16).
É rápido, fácil e faz uma diferença enorme para o futuro da nossa dignidade digital. Vamos juntos mostrar que a sociedade está atenta!
Por favor, compartilhem nos seus grupos! 🙏
Respostas Curtas Sugeridas para a Tomada de Subsídios da ANPD sobre Dados Biométricos
Este é um guia com respostas curtas e diretas para as perguntas mais relevantes da consulta pública, consolidando as principais recomendações.
PARA A QUESTÃO 2 (Sobre Transparência Ativa):
A ANPD deve exigir que os controladores pratiquem transparência ativa:
· Consentimento Específico para Treinamento: Exigir que a permissão para usar dados para treinar algoritmos seja uma escolha separada e clara, e não embutida em termos de serviço genéricos, dadas as limitações técnicas do “Machine Unlearning”.
Transparência sobre Limitações: Obrigar a informação prévia ao cidadão caso seus dados, uma vez usados no treinamento de uma IA, não possam ser 100% eliminados (tanto por Remoção de Informação Observada quanto por Supressão de Saída)
Interfaces Padronizadas: Criar normas para as interfaces de consentimento para combater "dark patterns" e garantir que a escolha do usuário seja livre.
Divulgação de Riscos: Obrigar a divulgação prévia e clara das taxas de erro e dos riscos de viés discriminatório dos sistemas biométricos.
Acesso ao Relatório de Impacto (RIPD): Exigir que o link público para o Relatório de Impacto à Proteção de Dados seja de fácil acesso para o titular.
PARA A QUESTÃO 3 (Sobre Biometria Comportamental vs. Tradicional):
A biometria comportamental (voz, digitação) deve ter regras de transparência e segurança mais rigorosas que a tradicional (digital, face).
Justificativa: Por operar como uma "caixa-preta" (black box), ela cria uma assimetria de poder que impede o cidadão de entender ou contestar uma decisão, ferindo a autodeterminação informativa. A regulação deve compensar essa opacidade.
PARA A QUESTÃO 4 (Sobre Consentimento Válido):
Para garantir que o consentimento seja livre e inequívoco, conforme a LGPD, a ANPD deve normatizar que:
Consentimento Granular: Proibir o "consentimento embutido". A permissão para compartilhar dados com terceiros deve ser uma escolha granular, separada dos termos de uso principais, e não uma condição para usar o serviço.
O "Opt-in Ativo" é obrigatório: A opção de compartilhar dados deve vir sempre desmarcada por padrão. O silêncio do usuário não pode ser interpretado como consentimento.
As Interfaces devem ser justas: Os botões "Aceito" e "Recuso" devem ter o mesmo destaque visual, para evitar o uso de "dark patterns" que induzam o usuário à opção menos privada.
PARA A QUESTÃO 5 (Sobre a Hipótese de "Prevenção à Fraude"):
A base legal de "prevenção à fraude" (Art. 11, II, "g") não pode ser um "cheque em branco" para o uso de biometria.
Recomendação: Seu uso deve ser condicionado a um teste de necessidade e proporcionalidade, exigindo que o controlador demonstre formalmente que não existem alternativas menos intrusivas e igualmente eficazes para atingir o mesmo objetivo de segurança.
PARA A QUESTÃO 8 (Sobre Reconhecimento Facial - FRTs):
O uso de Tecnologias de Reconhecimento Facial (FRTs) em espaços de acesso público deve ser classificado pela ANPD como uma atividade de "Alto Risco".
Consequência: Isso deve acionar a obrigatoriedade de auditorias prévias e independentes para avaliar o viés e a acurácia do sistema antes de sua implementação. O ônus da prova deve ser do implementador, não da vítima.
· Para sistemas de alto risco, os controladores devem também ser obrigados a manter e disponibilizar Relatórios de Proveniência de Dados (Data Provenance Reports), detalhando as fontes e os vieses conhecidos em seus dados de treinamento. Para sistemas proativos, pode-se exigir a capacidade de gerar um "Gráfico de Crenças" (Belief Graph), um relatório legível que mostre o caminho que a Inteligência Artificial percorreu para chegar a uma conclusão. Isso torna funcional o direito à revisão.
PARA A QUESTÃO 11 (Sobre Medidas de Segurança):
Dada a imutabilidade dos dados biométricos, deve ser mandatória a aplicação da "Privacidade desde a Concepção e por Padrão" e de padrões de segurança mínimos:
· 1. Proibição do Armazenamento de Dados Brutos e Exigência de “Salt” no Hashing e de Criptografia Robusta: Proibição do armazenamento do dado biométrico bruto, permitindo armazenamento apenas de sua representação matemática (template hash). Processamento dos templates via hash criptográfico forte (SHA-256 ou +), com a adição obrigatória de um "salt" (dado aleatório único) para cada usuário. Assim, em caso de vazamento, os dados não permitem ataques de comparação em massa. A base de dados deve ser protegida com criptografia forte e de padrão industrial (AES-256 ou +). As chaves criptográficas devem ser gerenciadas em ambientes seguros e isolados, como HSMs (Hardware Security Modules).
· 2. Detecção de Vivacidade (Liveness Detection): O uso da tecnologia deve ser obrigatório, garantindo a presença do titular na autenticação.
PARA A QUESTÃO 15 (Sobre Direitos do Titular em Sistemas Automatizados):
Para garantir os direitos dos titulares em sistemas de IA, especialmente o direito à eliminação de dados (Art. 18, VI), a ANPD deve:
Regular o "Direito ao Esquecimento" como "Supressão de Saída": O controlador deve ser obrigado a provar que seu sistema de IA não gera mais a informação pessoal de quem solicitou a eliminação. Esta é uma solução tecnicamente viável.
Priorizar a Prevenção: Se a eliminação completa é um desafio técnico, a minimização de dados se torna ainda mais crucial. A coleta de dados deve se ater estritamente ao necessário para a finalidade informada.
Exigir Transparência sobre a Permanência: O cidadão tem o direito de ser informado, no momento da coleta, que a influência de seus dados no treinamento de um modelo de IA pode não ser permanentemente reversível.
PARA A QUESTÃO 16 (Sobre Crianças e Adolescentes):
O tratamento de dados biométricos de crianças para fins não essenciais (e.g., cantina escolar) exige o mais alto padrão de proteção, baseado no "melhor interesse da criança" (Art. 14).
Regra Proposta: O consentimento dos pais é necessário, mas não suficiente. O controlador deve ser obrigado a provar que o tratamento gera um benefício direto, tangível e superior para a criança, que supere o risco vitalício de ter sua identidade imutável registrada. Conveniência administrativa para a instituição não é uma justificativa válida.
1. Ficou com Dúvidas? Veja se sua resposta está por aqui:
1. O que é isso de Machine Unlearning, eliminação por Remoção de Informação Observada e eliminação por Supressão de Saída?
O "machine unlearning" é o Desaprendizado da Máquina. A capacidade do algoritmo de esquecer o que aprendeu. E com o desenvolvimento técnico de hoje, ele é um obstáculo para a conformidade com leis de privacidade, que tornam obrigatório o direito ao esquecimento (direito de ter seus dados apagados.
Do lado técnico, o desaprendizado ou esquecimento comumente se distingue em duas metas diferentes e frequentemente confundidas:
1. Remoção de Informação Observada: Tentar fazer com que o modelo se comporte como se nunca tivesse visto um dado específico em seu treinamento. Este é o ideal do "esquecimento", mas é extremamente difícil de alcançar e verificar com perfeição.
2. Supressão de Saída (Output Suppression): Impedir que o modelo gere uma informação específica em suas respostas. Este é um objetivo mais pragmático e tecnicamente mais viável. Para aqueles que usaram as IAs generativas no começo: se lembram que elas não respondiam temas polêmicos, como política, dado que as fontes sobre política tinham vieses? Esse é um tipo de Supressão de Saída.
Para proteger um cidadão, o que mais importa é que a IA não revele ou utilize seus dados pessoais. Portanto, a supressão da saída — e não necessariamente a busca por uma "limpeza" neurológica impossível do modelo — é o que deve estar no centro da nossa abordagem regulatória. Essa é, inclusive, uma abordagem mais relevante e pragmaticamente viável, ainda que imperfeita, para a qual os esforços técnicos deveriam se direcionar.
2. “Se parte das sugestões já estão na LGPD, então por que precisamos enviar mesmo assim?”
Essa é uma pergunta excelente e fundamental. A resposta está na diferença entre uma Lei e uma Normativa, e no papel da sociedade para conectar as duas.
A LGPD estabelece os grandes princípios e direitos fundamentais que devem guiar o país. Ela nos diz "O Quê" deve ser feito. Por exemplo:
· A Lei (LGPD) estabelece que o consentimento deve ser "inequívoco".
· A Lei (LGPD) garante o "direito à eliminação" dos dados.
· A Lei (LGPD) ordena que a proteção de dados observe a "Privacidade por Padrão".
No entanto, a lei é, por design, ampla e baseada em princípios para que possa durar ao longo do tempo e se aplicar a múltiplos contextos. Ela não diz, e nem poderia dizer, exatamente como esses princípios devem ser aplicados a cada nova tecnologia que surge.
É aí que entram as Normativas da ANPD, a “Agência Reguladora” do tema de Proteção de Dados.
As normativas, resoluções e guias orientativos da ANPD são as regras do jogo. Elas traduzem os princípios da lei em obrigações práticas, técnicas e fiscalizáveis. Elas nos dizem "Como" a lei será cumprida. A própria LGPD, em seu Art. 55-J, dá à ANPD a competência para "editar regulamentos e procedimentos sobre proteção de dados pessoais".
É por isso que a participação na Tomada de Subsídios é tão importante. Nossas sugestões irão influenciar a criação das regras que farão a lei ser cumprida na prática.
Veja como isso se aplica diretamente às nossas propostas:
· Do Princípio à Prática (Consentimento): A Lei diz que o consentimento deve ser "inequívoco". Nossa sugestão para a Normativa define o que isso significa em uma interface digital: exigir "opt-in ativo" e proibir "dark patterns". Estamos dizendo à ANPD qual é a régua técnica para medir o que é "inequívoco".
· Do Direito à Realidade (Eliminação): A Lei garante o "direito à eliminação". Diante do desafio técnico do "machine unlearning" , nossa sugestão para a Normativa oferece uma solução prática e auditável: definir "eliminação" como a comprovação da "supressão de saída".
· Do Conceito à Arquitetura (Privacidade por Padrão): A Lei estabelece a "Privacidade por Padrão". Nossa sugestão para a Normativa detalha o que isso exige na arquitetura de um sistema biométrico: armazenamento de templates criptografados em vez de dados brutos.
Em resumo, nós enviamos as sugestões porque a Lei é o destino, mas a Normativa é o mapa. Sem um mapa claro, detalhado e robusto, não chegaremos no destino.
A "Tomada de Subsídios" é o momento em que a ANPD convida a sociedade para ajudar a desenhar esse mapa. Ao enviarmos contribuições em massa, com propostas claras e alinhadas, nós demonstramos que há uma demanda social por uma interpretação forte e protetiva da lei. Nós damos à ANPD os subsídios técnicos e o respaldo social para criar regras que efetivamente protejam os cidadãos, fechando as brechas que as empresas exploram e garantindo que os direitos previstos na LGPD saiam do papel e se tornem uma realidade vivida por todos.
3. “Poxa, eu entendo muito de tecnologia e acho que a gente poderia especificar melhor parte das sugestões, por exemplo a família do Hashing. Posso adicionar isso?”
Essa é uma excelente pergunta e de resposta quase oposta à anterior. Se a lei é o destino e a norma técnica é o mapa, considere que existe o Guia Técnico, que faz exatamente o papel de um guia por essa jornada.
A ANPD não precisa colocar "AES-256" no corpo principal de sua Resolução, o que poderia tornar a norma obsoleta rapidamente. Nem Exigir o uso da família SHA-2, como SHA-256 ou superior. A norma pode, até, proibir explicitamente o uso de algoritmos legados e inseguros como MD5 e SHA-1 para esta finalidade. Mas a abordagem mais inteligente seria:
1. A Resolução principal estabelece a obrigação de usar "algoritmos de padrão industrial, fortes e publicamente auditados", além de "práticas seguras de gestão de chaves".
2. A ANPD então publica e mantém um Guia Técnico separado, que pode ser atualizado com mais agilidade. Este guia listaria os padrões atualmente aceitos (e.g., "Atualmente, considera-se como padrão mínimo AES-256, SHA-256...").
Isso cria uma regulação durável e, ao mesmo tempo, adaptável à evolução da tecnologia, garantindo que a proteção oferecida aos cidadãos brasileiros não se torne obsoleta.
Portanto, a resposta curta é: sim, você pode sugerir. Mas isso provavelmente será considerado em um momento futuro, na elaboração do Guia Técnico, possivelmente posterior ao lançamento da Norma Técnica.


