| |

Apple se recusa a digitalizar fotos no iCloud usando detecção de CSAM, projetada para proteger crianças

Em 2021, a Apple anunciou uma série de medidas de segurança infantil, incluindo a digitalização de fotos em galerias privadas de fotos do iCloud com detecção de material de abuso sexual infantil (CSAM), que pode detectar crimes contra crianças. No entanto, isso atraiu duras críticas de ativistas de direitos humanos que viram uma ameaça à…