As novas funções da Apple para combater fotos de abuso infantil no iPhone foram alvo de críticas nesta sexta-feira (6) pelo chefe do WhatsApp Will Cathcart. Entre as ferramentas ainda não lançadas, mas já polêmicas, está a digitalização de fotos do iCloud com o objetivo de reconhecer imagens de abuso sexual infantil (CSAM, na sigla em inglês). O recurso de segurança infantil em questão compara as imagens armazenadas no iCloud com conteúdos dos bancos de dados do CSAM.
Ao Financial Times, o chefe do WhatsApp declarou que a abordagem da empresa da maçã é muito preocupante para a privacidade das pessoas. Já no Twitter, Will Cathcart anunciou que o WhatsApp nunca adotará tal sistema de detecção de conteúdos impróprios, optando por incentivar a política de denúncias entre seus usuários.
![Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio)](https://s2.glbimg.com/9ECj5eS3l8XcB1Qhoa_wUnB7XRE=/0x0:1880x1279/984x0/smart/filters:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2020/A/r/VpoYDYTcSsgfXn7IWPIA/pexels-photo-3768166.jpeg)
Novas funcionalidades de segurança infantil da Apple são recebidas com críticas pelo chefe do WhatsApp — Foto: Divulgação/Pexels (by Andrea Piacquadio)
iPhone travado na tela da maçã: como resolver? Descubra no Fórum do TechTudo.
Em fio postado no Twitter nesta sexta-feira (6), Will Cathcart questionou que o novo recurso pode ser usado para outros fins e invadir a privacidade dos usuários. O chefe do WhatsApp defendeu que seria melhor desenvolver ferramentas que facilitem a denúncia de conteúdos impróprios na plataforma. Ele, inclusive, usou como exemplo as próprias funções de denúncia do WhatsApp, e lembrou que o mensageiro relatou mais de 400 mil casos ano passado sem comprometer a criptografia do aplicativo.
"Este é um sistema de vigilância construído e operado pela Apple que poderia facilmente ser usado para escanear conteúdo privado em busca de qualquer coisa que eles ou um governo decidam controlar. É preocupante vê-los agir sem envolver especialistas."
O chefe do WhatsApp não foi o único a criticar as funções de proteção infantil, e mais debates sobre privacidade surgiram com o anúncio da Apple na última semana. Nesta segunda-feira (9), a empresa explicou que as ferramentas foram desenvolvidas com o intuito de banir imagens de abuso infantil do iCloud e proteger crianças de abusadores.
A Apple frisa que não será possível escanear fotos armazenadas localmente no dispositivo com a "Detecção de CSAM". O recurso funciona apenas com imagens salvas na nuvem do iCloud, e usa criptografia para comparar fotos suspeitas com o banco de dados CSAM. Em caso positivo de conteúdo sensível, a Apple relatará as ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos (NCMEC).
![O anúncio das novas funcionalidades de segurança infantil da Apple vieram acompanhadas de críticas — Foto: Divulgação/Apple](https://s2.glbimg.com/--HmJLOi1CmectUcnr4Q18cqKHA=/0x0:1440x708/984x0/smart/filters:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2021/i/W/Rtp5AYRNuBA3KVOsfW8w/child-safety-apple.jpg)
O anúncio das novas funcionalidades de segurança infantil da Apple vieram acompanhadas de críticas — Foto: Divulgação/Apple
Além da "Detecção de CSAM", a Apple também anunciou a "Segurança de comunicação em mensagens", um recurso para auxiliar os pais a proteger os filhos. A ferramenta oculta imagens detectadas como impróprias no aplicativo Mensagens. A foto é exibida em branco com um aviso às crianças de que "isso pode ser confidencial". Caso a criança opte por visualizar a imagem mesmo assim, ela é informada de que seus pais receberão um alerta da ação.
A Apple afirma que a análise de anexos de imagem e o reconhecimento de fotos explícitas funcionam por inteligência artificial. A empresa reitera que não tem acesso às mensagens e que o recurso não rompe com a criptografia do iMessage. Além disso, o sistema de detecção de imagens das duas funções é diferente e funciona separadamente. No caso das fotos explícitas enviadas por mensagem, nem a Apple nem instituições governamentais são notificadas.
A Apple deve lançar os recursos nas atualizações de fim de ano do iOS 15, iPadOS 15 e macOS Monterey, para as contas configuradas como família no iCloud.
WhatsApp critica nova função da Apple que escaneia fotos no iPhone - TechTudo
Read More
No comments:
Post a Comment