Em um comunicado publicado em seu site oficial, a Apple anunciou que vai conduzir varreduras em iPhones a fim de encontrar usuários que consumam pornografia infantil e salvem esse tipo de material em seus dispositivos ou mesmo no iCloud, a plataforma de hospedagem em nuvem da Maçã. Há também outras medidas, como mais ferramentas de monitoramento para os pais.
A empresa de Cupertino assegurou a segurança das medidas anunciadas, o que agradou entidades de proteção à criança. Entretanto, especialistas como a Electronic Frontier Foundation (EFF) não foram muito complacentes, afirmando que, embora o objetivo seja o mais nobre possível, não há como evitar que esse tipo de brecha seja usado no futuro por autoridades governamentais ou hackers (mais sobre isso ao final do texto).
A primeira medida mencionada pela Apple contra a pornografia infantil refere-se à segurança de comunicações via Messages. O aplicativo de conversas em tempo real passará a alertar crianças que tenham um iPhone de que a imagem recebida tem conteúdo não recomendado à elas, desfocando a figura. Mais além, um alerta avisará que, caso a criança persista na visualização, seus pais serão notificados disso por meio do ecossistema de aparelhos conectados da empresa.
O mesmo vale para o caso de a criança tentar enviar tais materiais por conta própria, como acontece quando adolescentes são convencidas por predadores online a tirarem fotos explícitas. Os pais é quem poderão fazer o ajuste desse sistema – inclusive ligando-o ou desligando-o.
Isso se dá, segundo a Apple, por um processo de machine learning on device – ou seja, o uso da inteligência artificial do próprio aparelho -, que analisa as imagens recebidas antes de elas serem abertas, determinando sua natureza sexual. Pelo processo ocorrer dentro do aparelho, não há compartilhamento com a Apple e a empresa não ficará sabendo do que está acontecendo.
Depois disso, o comunicado falam da detecção do que a Apple chama de “Material de Abuso Sexual de Crianças” (CSAM), outro nome para “pornografia infantil”: “Antes de uma imagem ser armazenada no iCloud, um processo de listagem do dispositivo é executado e as imagens são comparadas com bases de dados (hashes) conhecidas de CSAMs”, diz o trecho do texto.
“Este processo é conduzido por uma tecnologia criptografada chamada ‘interseção fixa’, que determina se uma imagem conhecida está sendo usada, mas sem revelar o resultado. O dispositivo então cria um voucher criptografado de segurança que codifica o resultado comparativo junto com dados, também criptografados, da imagem. Esse voucher é armazenado no iCloud junto da imagem”.
A própria Apple assegura que o conteúdo não será compartilhado com a empresa – a não ser que a imagem em questão bata com algum resultado de bases de CSAM. Caso isso ocorra, a Apple poderá “ver” o conteúdo, analisar por conta própria e, se constatada a violação, desabilitar a conta do usuário permanentemente – mas não sem antes compartilhar todo o material com o Centro Nacional para Crianças Desaparecidas e/ou Exploradas (NCMEC, no inglês), uma ONG de combate à pedofilia estabelecida em 1984 pelo governo dos Estados Unidos.
Finalmente, a Siri e outros mecanismos de buscas dos iPhones e iPads que se conectem à internet também receberão mudanças: a assistente virtual da Apple poderá apontar o usuário para entidades que recebem denúncias de veiculação de material de pedofilia, além de barrar buscas que ambicionem encontrar tais materiais. Neste segundo tópico, a Siri exibirá alertas do quão prejudicial é esse tipo de conteúdo e direcionará o usuário a mecanismos e entidades de ajuda psicológica.
Todas as novidades acima têm previsão para chegar “em 2021”, mas sem um comprometimento específico de data. Os usuários notarão essas alterações nas próxima atualizações do iOS, iPadOS e outros sistemas operacionais.
Apple x pornografia infantil x EFF
Como dissemos no começo do texto, a notícia não foi muito bem recebida pelo time da EFF, que teceu alguns comentários sobre o assunto em seu site oficial:
“A exploração de crianças é um problema muito sério, e a Apple não é a primeira empresa de tecnologia a flexibilizar seu posicionamento em favor da privacidade como um meio de combater isso”, diz trecho do texto publicado. “Porém, essa escolha cobrará um preço muito alto para a privacidade generalizada dos usuários. A Apple pode explicar todas as tecnicalidades dessa brecha proposital, mas ao final das contas, mesmo uma brecha documentada em detalhes, cuidadosamente planejada e com escopo extremamente específico ainda é uma brecha”.
O texto continua, ressaltando como a EFF está “desapontada” com a Apple, a quem a entidade refere-se como “uma contínua campeã em favor da criptografia de ponta a ponta”. “O comprometimento proposital da Apple em sua criptografia pode agradar agências governamentais nos EUA e em outros países, mas é uma ‘virada de cara’ para usuários que sempre dependeram de sua liderança em privacidade e segurança”.
Segundo a EFF, “é impossível construir um sistema de escaneamento do lado do cliente e usá-lo apenas para vistoria de imagens recebidas ou enviadas por crianças. Consequentemente, mesmo esforços bem intencionados podem quebrar promessas da criptografia do app de mensagens e abrir a porta para abusos maiores. Tudo o que fosse preciso para expandir a abertura dessa porta construída pela Apple é uma expansão dos parâmetros de machine learning, para que eles procurem outros tipos de conteúdo, ou mesmo uma mudança leve nas configurações de marcação de conteúdo problemático – não apenas em contas de crianças, mas de qualquer pessoa”.
Trocando em miúdos. A EFF pensa que, por mais louvável que seja o empenho da Apple em combater a pornografia infantil com seu imenso poderio tecnológico, isso pode ser, como diz a expressão, “um tiro que sai pela culatra”, já que pequenas mudanças em um sistema ao qual o usuário não tem acesso permitiriam que essa mesma tecnologia fosse usada para invadir a privacidade até mesmo de quem não usa de material de pedofilia.
No passado, a mesma Apple reforçou – e ganhou na justiça – o seu compromisso com não abrir ou flexibilizar a segurança de seus aparelhos, mesmo quando o FBI tentou forçá-la a quebrar a integridade de segurança de um iPhone supostamente pertencente a um terrorista morto. Tim Cook, o CEO da Apple, disse que a empresa tem a capacidade de fazê-lo, mas não para um iPhone específico: tal alteração seria feita no iOS – e isso comprometeria toda a base de usuários do smartphone. “Eu não posso autorizar a construção de algo que seria o equivalente tecnológico do câncer”, disse ele na época.
A Apple confirmou a instalação do material de combate à pornografia infantil já nas próximas atualizações de seus sistemas, mas não teceu comentários sobre as críticas posicionadas pela EFF. Também não há informação sobre se ou quando essas medidas chegarão ao Brasil.
Enquanto essas medidas da Apple não aparecem por aqui, a pornografia infantil pode ser denunciada junto à Promotoria de Justiça da Vara da Infância e Juventude e o Conselho Tutelar de cada Estado. Por meio de uma ligação anônima para o serviço “Disque 100”, mantido pela Secretaria dos Direitos Humanos da Presidência da República (SEDH/PR), você consegue chegar aos órgãos competentes.
Já pela internet, a ONG SaferNet recebe denúncias relacionadas à pedofilia veiculada online e aceita informações por meio do endereço “https://new.safernet.org.br/helpline” (sem as aspas). Há também a Central Nacional de Denúncias de Crimes Cibernéticos , onde as denúncias são anônimas.
Com informações de Olhar Digital.