A decisão inédita da Autoridade Nacional de Proteção de Dados (ANPD) que determinou que a Meta suspenda a coleta de dados nas redes sociais para treinar modelos de inteligência artificial indica que faltou transparência da dona do Instagram, Facebook e WhatsApp ao mudar sua política de privacidade.
A empresa também dificultou o trâmite para os usuários se oporem ao uso de suas informações, avaliou a autoridade. Veja, mais abaixo, as quatro motivações da ANPD para tomar a decisão.
- Veja se o seu está na lista: WhatsApp vai deixar de funcionar em mais de 15 modelos de smartphones a partir de julho
- Privatização: Venda da Sabesp atrai R$ 30 bi de demanda de fundos, diz agência
O voto que baseou a decisão do conselho do órgão foi da diretora da ANPD Miriam Wimmer, que considerou, na análise preliminar, que a gigante de tecnologia violou a Lei Geral de Proteção de Dados Pessoais (LGPD) com sua nova política de dados.
Além da falta de transparência e dos obstáculos para os usuários se oponham ao uso de suas informações, a ANPD também questiona o argumento central da Meta para justificar a coleta de dados, o de “legítimo interesse”, e aponta como agravante o risco de a empresa utilizar informações de crianças e adolescentes para o treinamento da IA.
A alegação da big tech é de que o uso das informações públicas de seus usuários vai aperfeiçoar seus sistemas de IA e seriam legítimas para “desenvolver e melhorar a IA na Meta”. A coleta começou de forma silenciosa, no último mês, sem a notificação aos usuários brasileiros e às vésperas de a empresa lançar, no Brasil, uma IA generativa — aos moldes do ChatGPT — prevista para julho.
Confira as principais justificativas que basearam a decisão ANPD:
1. Irregularidades no ‘legítimo interesse’
O que fundamentou a decisão cautelar da ANPD, segundo Wimmer, foram indícios de que a Meta estaria infringindo a LGPD, a começar pela hipótese legal utilizada pela empresa para processar as informações de usuários para sua inteligência artificial. A empresa alega “legítimo interesse”, ou seja, que poderia tratar dados pessoais para seus interesses comerciais, desde que não violassem ou colocassem em risco direitos pessoais.
— O problema é que essa é uma hipótese que não pode ser usada no tratamento de dados pessoais sensíveis, como referentes à origem étnica e racial, vinculação política, saúde, religião e vida sexual. O que verificamos é que a empresa estava tratando todos os dados, inclusive os sensíveis, com base no argumento de legítimo interesse — afirmou a diretora da ANPD, em entrevista coletiva com jornalistas nesta terça-feira.
Em seu voto, seguido pelo conselho do órgão, Wimmer também acrescenta que a empresa não deixa claro em sua política de privacidade quais as finalidades específicas do tratamento de dados e a qual a necessidade de uso dessas informações.
2. Uso de dados de crianças e adolescentes
Outra questão levantada pela autoridade foi a não diferenciação, pela Meta, da coleta de informações de crianças e adolescentes para o treinamento das IAs, como de fotos ou vídeos postados nas redes sociais.
— No caso de crianças e adolescentes, os cuidados têm de ser redobrados e especialmente quando a organização resolve usar o legítimo interesse. A gente não verificou a existência das salvaguardas que seriam necessárias para tratar os dados pessoais desse tipo de público — afirmou Wimmer, a jornalistas.
Em seu voto, a diretora acrescenta que, na Europa, a Meta foi explícita ao anunciar que não usaria informações de menores de 18 anos para alimentar a IA. “Vale enfatizar que não foi encontrada qualquer indicação sobre adoção de cautela similar em relação aos usuários das plataformas utilizadas no Brasil”.
3. Obstáculos para usuários
Para a ANPD, a Meta também dificultou o processo para que os usuários brasileiros se opusessem à utilização de suas informações para treinar a IA, um direito que está assegurado pela Lei Geral de Proteção de Dados Pessoais. Chamado de “direito de oposição”, essa opção não estava exposta de maneira clara pela empresa, avalia a equipe técnica do órgão, o que se assemelha a “um padrão obscuro de mascaramento de informações”.
Para impedir que a empresa utilizasse seus dados, o usuário precisava cumprir ao menos sete passos dentro das redes e então chegar ao formulário em que poderia solicitar o bloqueio do treinamento. Em seu voto, a diretora da ANPD diz “existir obstáculos que limitam excessivamente o exercício dos direitos” dos usuários.
4. Ausência de transparência
Diferentemente do que aconteceu na União Europeia, em que os usuários foram notificados que a mudança aconteceria, a Meta não informou, no Brasil, que iria alterar sua política de privacidade. A ANPD lembra que, mesmo que a big tech comprovasse “legítimo interesse” no uso das informações, a LDPD determina que a empresa deve adotar medidas “para garantir a transparência” do tratamento de dados.
Nesse caso, a área técnica da autoridade de dados brasileira constatou “a falta de comunicação clara, ampla e específica pela Meta quanto à alteração de sua política de privacidade”, de modo que “não se pode presumir que os titulares de dados tenham sido devidamente informados” sobre o processamento de suas informações.
Miriam aponta ainda para a diferença de postura da empresa no Brasil e na União Europeia: “Na UE, os usuários das plataformas da Meta foram previamente informados por e-mail e notificações no aplicativo, proporcionando mais transparência para os usuários europeus sobre a política de privacidade em relação aos brasileiros”.
O que acontece a partir da decisão
A partir da decisão desta terça-feira, a Meta deve cessar imediatamente a coleta de dados com a finalidade de alimentar seus modelos de inteligência artificial. A empresa tem um prazo de cinco dias úteis para encaminhar à ANPD os documentos que atestem mudança na política de privacidade. Passado esse prazo, está sujeita a multa diária de R$ 50 mil.
Após a medida cautelar, a ANPD fará uma “avaliação detalhada das condutas”, segundo o órgão, e então um processo fiscalizatório da empresa, que será conduzido pela área técnica.
O regulador tem a premissa da “boa fé” da empresa, ou seja, de que ao alterar a política de privacidade, que é pública, a Meta terá cessado a prática de coleta de dados. Em coletiva de imprensa nesta terça-feira, integrantes do órgão acrescentaram que, após a suspensão da prática, o regulador também poderá solicitar informações adicionais para a Meta sobre suas práticas.
A empresa também terá dez dias úteis para recorrer da decisão, ou poderá judicializar a decisão. Para especialistas ouvidos pelo GLOBO, as chances da empresa entrar em uma batalha jurídica contra a decisão da autoridade de dados são remotas.
Na ANPD, a expectativa é que a big tech coopere com o regulador e, a partir da decisão, passe a ajustar suas práticas “com vistas à observância da legislação brasileira”, afirmou Miriam Wimmer a jornalistas, nesta terça-feira. Ela acrescentou que a medida poderá ser revertida ao longo do processo de pauraçã da autoridade nacional, a partir de adequações da política de privacidade, por exemplo.