Meta é proibida de usar dados de usuários para treinamento de IA

Medida preventiva foi emitida nesta terça-feira (2) pela Autoridade Nacional de Proteção de Dados (ANPD)

A Autoridade Nacional de Proteção de Dados (ANPD), autarquia vinculada ao Ministério da Justiça, emitiu nesta terça-feira (2) uma medida preventiva que determina à empresa Meta que suspenda imediatamente o uso de dados pessoais para treinamento de sistemas de inteligência artificial no Facebook, no Instagram e no Messenger. Caso a determinação seja descumprida, a empresa estará sujeita a uma multa no valor de R$ 50 mil por dia.

Na semana passada, a Meta atualizou sua política de privacidade. O novo texto permite que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados pelos usuários para o treinamento e aperfeiçoamento de sistemas de inteligência artificial generativa. A Autoridade Nacional de Proteção de Dados (ANPD) observa que esse tratamento pode impactar um número substancial de pessoas, dado que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.

A autarquia informa que instaurou o processo de fiscalização em razão de “indícios de violações à Lei Geral de Proteção de Dados (LGPD)”. “Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.”

Ainda segundo a autarquia, a Meta “não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”. “A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.”

Outro problema citado é o fato de que, segundo a ANPD, “dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta”.

“Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar”, finaliza a autarquia.

Sair da versão mobile