Ação Judicial do Procurador Geral da Virgínia Ocidental contra a Apple
O procurador geral da Virgínia Ocidental entrou com uma ação judicial de proteção ao consumidor contra a Apple, acusando a empresa de não conseguir impedir que materiais de abuso sexual infantil fossem armazenados e compartilhados por meio de dispositivos iOS e serviços iCloud.
Acusações de Prioridade à Privacidade
John "JB" McCuskey, membro do Partido Republicano, afirmou que a Apple estaria priorizando sua imagem de privacidade e seus interesses comerciais em detrimento da segurança infantil. Ele destacou que outras grandes empresas de tecnologia, como Google, Microsoft e Dropbox, têm adotado medidas mais proativas, utilizando sistemas como o PhotoDNA para combater a presença desse tipo de material.
Tecnologia PhotoDNA
O PhotoDNA, desenvolvido pela Microsoft e pelo Dartmouth College em 2009, é uma tecnologia que utiliza "hashing e matching" para identificar e bloquear automaticamente imagens de material de abuso sexual infantil (CSAM), quando estas já foram identificadas e reportadas às autoridades.
Teste de Recursos de Detecção pela Apple
Em 2021, a Apple havia testado suas próprias funcionalidades de detecção de CSAM, que poderiam localizar e remover automaticamente imagens de exploração infantil, além de reportar aquelas que fossem enviadas ao iCloud nos Estados Unidos ao National Center for Missing & Exploited Children. No entanto, a empresa decidiu cancelar seus planos para essas funcionalidades após a reação de defensores da privacidade, que temiam que tal tecnologia pudesse criar uma porta dos fundos para vigilância governamental e ser usada para censurar outros tipos de conteúdo nos dispositivos iOS.
Críticas Contemporâneas
Após a desistência da Apple em implementar essas funcionalidades, muitos críticos continuam insatisfeitos com os esforços da empresa para lidar com este problema. Em 2024, a National Society for the Prevention of Cruelty to Children, entidade britânica, alegou que a Apple não monitorava, tabulava ou reportava adequadamente os casos de CSAM em seus produtos às autoridades.
Ação Judicial na Califórnia
Em 2024, também foi apresentada uma ação judicial na Califórnia, na qual milhares de sobreviventes de abuso sexual infantil processaram a Apple, alegando que a empresa não deveria ter abandonado seus planos anteriores de detecção de CSAM, e que, ao permitir que tal material proliferasse online, causou sofrimento adicional aos sobreviventes, fazendo com que revivessem suas experiências traumáticas.
Posicionamento da Apple em Relação à Privacidade
A Apple tem se posicionado como a empresa de tecnologia mais consciente em termos de privacidade. O CEO Tim Cook publicou uma carta aberta sobre o assunto em 2014. Caso a ação do estado da Virgínia Ocidental seja bem-sucedida, ela poderá forçar a empresa a fazer mudanças em seu design ou segurança de dados. O estado busca danos estatutários e punitivos, além de uma medida cautelar que obrigue a Apple a implementar uma detecção efetiva de CSAM.
Declaração da Apple
Em uma declaração enviada por e-mail, um porta-voz da Apple afirmou à CNBC que "proteger a segurança e a privacidade de nossos usuários, especialmente das crianças, é central para o que fazemos". A empresa ressaltou suas opções de controle parental e características como o Communication Safety, que "intervém automaticamente nos dispositivos das crianças quando nudez é detectada em Mensagens, Fotos compartilhadas, AirDrop e até mesmo em chamadas ao vivo pelo FaceTime". Isso seria uma demonstração do compromisso da Apple em garantir "segurança, proteção e privacidade" a seus usuários.
O porta-voz acrescentou: "Estamos inovando todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para as crianças".
— Reportagem de Kif Leswing, CNBC
Fonte: www.cnbc.com


