ANPD proíbe Meta de usar dados para treinar IA no Brasil
Ação emergencial da ANPD impõe multa diária de R$ 50 mil à Meta se não interromper uso de dados para IA. São 102 milhões de usuários em risco
Recentemente a Autoridade Nacional de Proteção de Dados (ANPD), órgão vinculado ao Ministério da Justiça, emitiu uma decisão significativa, afetando diretamente a empresa Meta, proprietária de plataformas como Facebook, Instagram e Messenger. Esta decisão emergencial restringe a utilização de dados pessoais dos usuários para fins de treinamento de sistemas de inteligência artificial (IA) pelas citadas redes sociais.
Esta nova determinação jurídica impõe à Meta a interrupção imediata dessa prática de coleta de dados, sob a pena de uma multa diária de R$ 50 mil reais caso a empresa não cumpra a medida. A decisão da ANPD surge após a atualização da política de privacidade pela Meta, que ampliou as capacidades de uso de dados para aperfeiçoamento de seus sistemas AI.
Precisamos Nos Preocupar com a Privacidade nas Redes Sociais?
Com a nova política, dados antes considerados seguros ou privados, agora podem ser utilizados abertamente para treinar os algoritmos de inteligência artificial da empresa. Um dos principais pontos de atenção apontados é o impacto desse tratamento nas vidas dos aproximadamente 102 milhões de usuários ativos do Facebook no Brasil, conforme mencionado pela ANPD.
Quais Foram as Violações Indicadas pela ANPD?
A ANPD acusa a Meta de utilizar uma “hipótese legal inadequada” para o tratamento dos dados coletados, além de apontar a falta de transparência com os usuários. Dizem haver uma falha na comunicação sobre as mudanças e os impactos que isso poderia acarretar. A autoridade também destacou as restrições exageradas impostas aos usuários que desejassem se opor a esse tratamento.
Impacto no Tratamento de Dados de Menores
Um dos aspectos mais críticos mencionados pela ANPD refere-se ao uso de dados de crianças e adolescentes. Conforme a Lei Geral de Proteção de Dados (LGPD), o tratamento dessas informações deveria seguir critérios rigorosos de proteção, focando sempre no melhor interesse dos menores. Entretanto, segundo a ANPD, as medidas adotadas pela Meta não estão alinhadas com estas exigências, expondo jovens usuários a potenciais riscos.
Em resposta às acusações, a Meta se declarou “desapontada” e enfatizou que outros agentes do mercado também utilizam dados públicos para treinamento de IA. A empresa afirma estar em conformidade com as leis e regulamentações de privacidade brasileiras e mostra-se disposta a dialogar com a ANPD para esclarecer quaisquer dúvidas e continuar a avançar na inovação e competitividade no campo da inteligência artificial no Brasil.
Leia a íntegra da Meta sobre o assunto:
“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)