17/06/2024 12:22:05

Atualidade
26/08/2021 14:00:00

Questões de privacidade da Apple podem fazer milhões de usuários desistirem de seus iPhones


Questões de privacidade da Apple podem fazer milhões de usuários desistirem de seus iPhones

Os usuários do iPhone já toleraram muitas coisas nos últimos meses. Mas o novo sistema de detecção de CSAM (conteúdos relacionados ao abuso sexual infantil) da Apple atrai tantas controvérsias que se destaca de todo o resto. E se você já estava pensando em abrir mão do seu iPhone, um novo relatório chocante pode simplesmente convencê-lo de uma vez por todas.

No editorial publicado pelo “The Washington Post”, uma dupla de pesquisadores que passaram dois anos desenvolvendo um sistema de detecção de CSAM semelhante ao que a Apple planeja instalar em iPhones, iPads e Macs no próximo mês, entregou um aviso inequívoco: o sistema é perigoso.

Siga todas as novidades da Forbes Insider no Telegram

Ontem (23), esta história sofreu uma reviravolta, após a gigante de tecnologia admitir que o sistema já estava sendo executado há três anos no iCloud Mail. “A Apple me confirmou que desde 2019 verifica os conteúdos do iCloud Mail em busca de anexos CSAM. Como o e-mail não é criptografado, analisar os conteúdos que passam pelos servidores da Apple seria uma tarefa trivial”, relata o redator do “9to5Mac”, Ben Lovejoy. “A empresa também indicou que estava fazendo uma varredura limitada de outros dados, mas não me disse o que era, exceto para sugerir que a ação ocorria em uma escala minúscula.”

Segundo Lovejoy, a Apple silenciosamente admitiu essas informações em uma versão, agora arquivada, de sua página de segurança infantil. Em uma entrevista de 2020 ao jornal britânico “The Telegraph”, a CPO Jane Horvath reconheceu que “a empresa usa tecnologia de triagem para procurar as imagens ilegais”. Embora o jornal reconheça que a Apple “não especifica como o sistema descobre os materiais proibidos”, essas revelações tornam a situação ainda pior. O retrocesso contra essas medidas – embora bem intencionadas – deve aumentar significativamente nos próximos dias e semanas.

“Nós escrevemos a única publicação revisada sobre como construir um sistema semelhante ao da Apple – e concluímos que a tecnologia era perigosa”, afirmam Jonathan Mayer e Anunay Kulshrestha, os dois acadêmicos de Princeton por trás da pesquisa. “O nosso sistema poderia ser facilmente reaproveitado para vigilância e censura. O design não estava restrito a uma categoria específica de conteúdo; um serviço poderia simplesmente trocar qualquer banco de dados de correspondência de conteúdo, e o usuário não saberia.”

Este tem sido o medo predominante em relação à iniciativa CSAM da Apple. O objetivo da tecnologia para reduzir o abuso infantil é indiscutivelmente importante, mas o dano potencial que pode vir de hackers e governos manipulando um sistema projetado para analisar suas fotos do iCloud e relatar conteúdos abusivos é claro para todos.

“A China é o segundo maior mercado da Apple, com provavelmente centenas de milhões de dispositivos. O que impede o governo chinês de exigir que a Apple escaneie esses aparelhos em busca de materiais pró-democracia?”, questionam os pesquisadores.

Os críticos têm munição de sobra. No início deste ano, a multinacional foi acusada de comprometer a censura e vigilância na China após aceitar mover os dados pessoais de seus clientes para os servidores de uma empresa estatal do país. A Apple também diz que forneceu dados de seus clientes ao governo dos EUA quase 4.000 vezes no ano passado.

LEIA MAIS: Apple vai vasculhar fotos de usuários do iCloud

“Identificamos outras deficiências no sistema. O processo de verificação dos conteúdos pode ter falsos positivos, e usuários mal-intencionados podem manipular a tecnologia para prejudicar usuários inocentes”, alertam Mayer e Kulshrestha.

A história mais recente não parece ser boa. No mês passado, revelações sobre o projeto Pegasus expuseram uma empresa global que havia hackeado iPhones com sucesso durante anos e vendido sua tecnologia a governos estrangeiros para vigilância de ativistas anti-regime, jornalistas e líderes políticos de nações rivais. Com acesso à tecnologia da Apple projetada para digitalizar e sinalizar as fotos iCloud de um bilhão de proprietários de iPhone, esse conflito poderia se expandir ainda mais.

Antes de Mayer e Kulshrestha se manifestarem, mais de 90 grupos de direitos civis em todo o mundo já haviam escrito uma carta à Apple alegando que a tecnologia por trás do CSAM “poderá lançar as bases para censura, vigilância e perseguição em uma base global”.

Posteriormente, a companhia defendeu o seu sistema CSAM, alegando que as especificações da tecnologia estavam sendo mal comunicadas, mas suas declarações não impressionaram Mayer e Kulshrestha.

“A motivação da Apple, assim como a nossa, era proteger as crianças. E seu sistema era tecnicamente mais eficiente e capaz do que o nosso”, disseram. “Mas ficamos perplexos ao ver que a empresa tinha poucas respostas para as perguntas difíceis que tínhamos levantado.”

Agora, a Apple está no meio de uma confusão criada por ela mesma. Durante anos, a companhia dedicou um esforço considerável ao marketing como uma empresa líder em privacidade do usuário. A página oficial de segurança da empresa declara que “a privacidade é um direito humano fundamental. Na Apple, é também um dos nossos principais valores. Seus dispositivos são importantes em muitas partes da sua vida. O que você compartilha dessas experiências, e com quem você compartilha, deve ser uma escolha sua. Nós projetamos os produtos Apple para proteger sua privacidade e dar a você o controle sobre suas informações. Nem sempre é fácil. Mas esse é o tipo de inovação em que acreditamos.”

O CSAM será lançado no iOS 15, iPadOS 15, watchOS 8 e macOS Monterey no próximo mês. Eu suspeito que para muitos fãs da Apple, isso marcará o momento de ir embora.

https://forbes.com.br/forbes-tech 



Enquete
Se a Eleição municipal fosse agora em quem você votaria para prefeito de União dos Palmares?
Total de votos: 368
Notícias Agora
Google News