Fonte da imagem: LinkedIn Sales Solutions/unsplash.com
| |

Apple se recusa a digitalizar fotos no iCloud usando detecção de CSAM, projetada para proteger crianças

Publicidade

Em 2021, a Apple anunciou uma série de medidas de segurança infantil, incluindo a digitalização de fotos em galerias privadas de fotos do iCloud com detecção de material de abuso sexual infantil (CSAM), que pode detectar crimes contra crianças. No entanto, isso atraiu duras críticas de ativistas de direitos humanos que viram uma ameaça à privacidade na intenção de digitalização total do conteúdo da foto.

Publicidade


Fonte da imagem: LinkedIn Sales Solutions/unsplash.com

Publicidade

Depois disso, a Apple primeiro adiou o uso do sistema indefinidamente e agora anunciou completamente que os planos de introduzir um sistema de reconhecimento CSAM foram cancelados. No mesmo dia, a empresa anunciou o programa Advanced Data Protection, que fornece criptografia de dados de ponta a ponta no iCloud. Notícia confirmada em entrevista Jornal de Wall Street e uma das principais gerentes da empresa, Joanna Stern.

Quando a detecção de CSAM foi anunciada pela primeira vez, a Apple disse que o conteúdo inapropriado nas fotos do iCloud poderia ser reconhecido nos dispositivos dos usuários.

Como a Kaspersky Lab relatou no ano passado, “Para isso, é utilizada a tecnologia NeuralHash, que basicamente cria um identificador digital para uma foto em função do seu conteúdo. Se o identificador corresponder ao banco de dados de imagens conhecidas de exploração infantil, as informações sobre isso serão enviadas aos servidores da Apple. Há outro teste acontecendo.”. Como afirmaram os representantes da Kaspersky, outro elemento do sistema é o protocolo criptográfico Private Set Intersection. Ele criptografa os resultados da detecção de CSAM de forma que seja possível descriptografá-los no lado da Apple somente se vários critérios forem atendidos. Em teoria, isso deveria ter impedido que o sistema fosse usado além dos limites indicados.

De uma forma ou de outra, o sistema de detecção de CSAM causou fortes críticas de usuários, especialistas e ativistas de direitos humanos. Até porque o sistema utilizado para buscar fotos de crimes contra crianças pode ser facilmente reconfigurado para buscar qualquer outro conteúdo. Sem mencionar o fato de que praticamente não existem algoritmos invulneráveis ​​aos invasores, e é simplesmente perigoso criar um backdoor extra.

Agora a Apple decidiu abandonar essa prática sem colocá-la em prática. No entanto, outras medidas de proteção infantil, incluindo restrições do iMessage, ainda se aplicam ao iOS.

Se você notar um erro, selecione-o com o mouse e pressione CTRL + ENTER.

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *