Google, Meta✴ e outros estão mudando silenciosamente as políticas de privacidade para treinamento de IA
Grandes empresas de tecnologia como Google, Adobe e Meta✴ estão fazendo alterações em suas políticas de privacidade para permitir o uso de dados de usuários para treinar modelos de inteligência artificial (IA). Essas mudanças são muitas vezes feitas de forma silenciosa e secreta para evitar reações adversas.
Fonte da imagem: Christoph Meinersmann/Pixabay
A Comissão Federal de Comércio dos EUA (FTC) alertou que tais ações podem ser ilegais e violar as obrigações das empresas de proteger a privacidade dos usuários. Porém, de acordo com a análise O jornal New York Timesas empresas estão a ajustar discretamente os seus termos e condições, incluindo os termos relacionados com a IA, para obterem cobertura legal.
Vale lembrar que o Google fez alterações em sua política de privacidade em julho do ano passado, enfatizando que pretende usar informações disponíveis publicamente para treinar seus modelos de linguagem de IA. A Adobe também atualizou seus termos, o que gerou reação dos usuários quando foi revelado que eles poderiam perder o acesso aos seus projetos se não concordassem com os novos termos. Depois, isto levou a uma recusa massiva de subscrever os serviços da empresa.
A Meta✴, por sua vez, anunciou em maio sua intenção de usar postagens públicas no Facebook✴ e Instagram✴ para treinar IA, mas foi forçada a adiar esses planos devido a uma reclamação da organização internacional de direitos humanos na Internet (Centro Europeu de Direitos Digitais ). , EDRi).
Resta saber que medidas a FTC tomará em resposta à tendência crescente de mudanças nas políticas de privacidade para incluir formação em IA sobre dados de utilizadores.
Se você notar um erro, selecione-o com o mouse e pressione CTRL+ENTER.