Apple abandona planos controversos para detectar CSAM conhecido em fotos do iCloud

Além de disponibilizar a criptografia de ponta a ponta para o iCloud Photos, a Apple anunciou hoje que abandonou seus controversos planos de detectar material conhecido de abuso sexual infantil (CSAM) armazenado no iCloud Photos, de acordo com um comunicado compartilhado com COM FIO.

ANÚNCIOS

Recurso geral do iCloud
Declaração completa da Apple:

Após extensa consulta com especialistas para coletar feedback sobre as iniciativas de proteção infantil que propusemos no ano passado, estamos aprofundando nosso investimento no recurso de segurança de comunicação que disponibilizamos pela primeira vez em dezembro de 2021. Decidimos ainda não avançar com nossa detecção de CSAM proposta anteriormente ferramenta para iCloud Photos. As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais, e continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a Internet um lugar mais seguro para as crianças e para todos nós. .

Em agosto de 2021, a Apple anunciou planos para três novos recursos de segurança infantil, incluindo um sistema para detectar imagens CSAM conhecidas armazenadas no iCloud Photos, uma opção de segurança de comunicação que desfoca fotos sexualmente explícitas no aplicativo Mensagens e recursos de exploração infantil para Siri. O Communication Safety foi lançado nos EUA com iOS 15.2 em dezembro de 2021 e desde então se expandiu para o Reino Unido, Canadá, Austrália e Nova Zelândia, e os recursos Siri também estão disponíveis, mas a detecção de CSAM nunca foi lançada.

ANÚNCIOS

A Apple disse inicialmente que a detecção de CSAM seria implementada em uma atualização para iOS 15 e iPadOS 15 até o final de 2021, mas a empresa acabou adiando o recurso com base em “feedback de clientes, grupos de defesa, pesquisadores e outros”. Agora, após um ano de silêncio, a Apple abandonou completamente os planos de detecção de CSAM.

A Apple prometeu que seu sistema de detecção de CSAM foi “projetado com a privacidade do usuário em mente”. O sistema teria realizado “correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos” de organizações de segurança infantil, que a Apple transformaria em um “conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários”.

ANÚNCIOS

A Apple planejou relatar contas do iCloud com hashes de imagem CSAM conhecidos ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), uma organização sem fins lucrativos que trabalha em colaboração com as agências policiais dos EUA. A Apple disse que haveria um “limiar” que garantiria “menos de uma chance em um trilhão por ano” de uma conta ser sinalizada incorretamente pelo sistema, além de uma revisão manual das contas sinalizadas por um ser humano.

Os planos da Apple foram criticados por uma ampla gama de indivíduos e organizações, incluindo pesquisadores de segurança, a Electronic Frontier Foundation (EFF), políticos, grupos políticos, pesquisadores universitários e até mesmo alguns funcionários da Apple.

Alguns críticos argumentaram que o recurso teria criado uma “porta dos fundos” nos dispositivos, que governos ou agências de aplicação da lei poderiam usar para vigiar os usuários. Outra preocupação eram os falsos positivos, incluindo a possibilidade de alguém adicionar intencionalmente imagens CSAM à conta do iCloud de outra pessoa para sinalizar sua conta.

Observação: devido à natureza política ou social da discussão sobre este tópico, o tópico de discussão está localizado em nosso fórum de notícias políticas. Todos os membros do fórum e visitantes do site são bem-vindos para ler e seguir o tópico, mas a postagem é limitada a membros do fórum com pelo menos 100 postagens.