A blogosfera está em polvorosa após o anúncio dos novos planos da Apple para monitorar o conteúdo que seus produtos usuários levantam para a iCloud. Nosso blog não pode ficar fora dessa conversa. Assim, buscamos com este post inaugurar essa discussão em português [uma vez que não tenho visto esse assunto alhures na mídia lusófona].

Eu sei que ninguém gosta de falar sobre de segurança na rede e o preço a pagar pela insistência nesse assunto pode ser a alienação dos leitores. Mas quis o destino que eu fosse a pessoa a falar dos assuntos desagradáveis – mas necessários. Sempre tentou-se aqui ilustrar por que os modelos de negócio do Google ou do Facebook [assim como os de todas as redes sociais] representam uma ameaça à privacidade e segurança das pessoas. É muito difícil explicar por que o novo mecanismo da Apple é ainda pior.
Na verdade, enquanto eu rascunhava esta postagem, Matthew Green e Alex Stamos publicaram um artigo no New York Times em que fazem uma boa tentativa de explicar, de forma concisa, essa questão para um público não técnico. Parece que há esperança. Não é minha intenção dar aqui uma explicação exaustiva do que exatamente a Apple planeja fazer, mesmo porque muitos outros artigos excelentes já foram escritos sobre isto na última semana.
Em essência, o iOS 15 introduzirá um mecanismo que permite comparar as fotos do telefone do usuário com um banco de dados de conteúdo CSAM [Child Sexual Abuse Materials – Material de Abuso Sexual de Crianças], e essa comparação começará no dispositivo do usuário. Essa é a grande diferença entre a abordagem da Apple e a de quase todas as outras empresas que hospedam grandes bibliotecas de fotos online. Um parágrafo do artigo de Ben Thompson publicado ontem resume muito bem:
Em vez de limitar a varredura CSAM ao iCloud Photos – a ‘nuvem’ que eles possuem e operam – a Apple resolveu comprometer o telefone de propriedade dos usuários, sem que nenhum deles tenha uma palavra a dizer sobre o assunto. Sim, você ainda pode desligar o iCloud Photos para desabilitar o monitoramento da Apple individualmente. Mas o que está em jogo é uma questão política: a capacidade de penetrar o telefone de um usuário agora existe e não há nada que um usuário de iPhone possa fazer para se livrar dela.
É claro que você poderia dizer que este é um tipo de argumento falacioso do tipo “ladeira escorregadia” [a ideia de que uma vez que algo é permitido não há mais caminho de volta] e que não deveríamos ficar tão preocupados. Talvez você dissesse que de fato devemos confiar que a Apple não usará essa funcionalidade para nenhuma outra finalidade.
Deixando de lado o absurdo de confiar em uma corporação gigante com fins lucrativos [em vez de um governo eleito democraticamente], devemos ter em mente que o histórico de privacidade da Apple até aqui tem sido muito menos estelar do que eles gostariam que pensássemos. A empresa coopera com o governo chinês, por exemplo, armazenando dados pessoais de cidadãos chineses apenas em servidores administrados por uma empresa chinesa, e já cancelou seus planos de disponibilizar a criptografia de backups no iCloud – sob pressão do FBI.
A Apple divulgou uma FAQ na terça-feira na qual tentou esclarecer e resolver os questionamentos, mas se alguma coisa aconteceu foi apenas a confirmação do que todos nós já presumiamos ser verdade: a política interna da Apple é agora a única coisa que impede qualquer agência governamental ou outro agente malicioso de inserir certos arquivos de imagem [por exemplo, fotografias de casais homossexuais em países onde a homossexualidade é ilegal] no registro CSAM.
Porta dos fundos sempre aberta
No mundo da segurança de computadores, essa tecnologia tem um nome: é chamada de “backdoor”. Uma porta dos fundos [para acesso remoto ao aparelho], neste caso bem documentada e bem intencionada, mas ainda assim uma porta dos fundos – instalada e ativada por padrão em milhões de dispositivos em todo o mundo.
Por que diabos a Apple, uma empresa que vem construindo uma imagem de proteção à privacidade nos últimos anos, escolheria tal solução? E por que agora?
A hipótese que muitos analistas de segurança consideram é que a Apple deseja se distanciar do trabalho tóxico e ingrato de verificar os dados dos usuários. Ela têm lutado com o FBI e o governo federal americano há anos. Ela também tem resistido a relatar o conteúdo CSAM que ela encontra nos iPhones ao Centro Nacional para Crianças Desaparecidas e Exploradas [National Center for Missing & Exploited Children – NCMEC].
Mas o fato é que parece que eles não querem mais se envolver em nada disso. Eles querem criar uma situação em que possam oferecer criptografia de ponta a ponta para seus produtos [iMessage, iCloud Drive, etc] e, ao mesmo tempo, manter perante o ‘establishment’ a postura de conformidade com a lei e os costumes. Essa pode ser a única maneira de a Apple ter ‘dois pássaros na mão’.
E ainda mais: devido à forma como o mecanismo é implementado, a Apple não precisa ver os dados reais do usuário. A foto do usuário é convertida em um hash [assinatura digital]. Esse hash é comparado aos hashes de imagens armazenadas em um banco de dados de fotos ‘manjadas’ – mantido pelo FBI em um servidor. A Apple, portanto, não verá o conteúdo das imagens. Só saberá se há uma correspondência entre os hashes do telefone e dos dados do servidor.

Dessa forma, em suas campanhas de marketing ela ainda poderá alegar que respeita a privacidade do usuário. E se esse mecanismo for usado para qualquer outra coisa, eles sempre podem alegar que estão simplesmente cumprindo as regulamentações locais e que eles próprios não censuram nem olham os dados nos telefones de seus usuários.
Infelizmente, devido à natureza intrinsecamente técnica do problema, acredito que o público geral não será capaz notar essas maquinações [ou mesmo se importar] e continuará a usar os produtos da Apple normalmente. E certamente veremos, durante o próximo evento público da Apple, Tim Cook, o CEO, anunciando triunfantemente alguns recursos de melhoria da privacidade no iOS, como a proteção dos dados pessoais contra rastreamento entre aplicativos ou oferecendo conexão anônima semelhante a VPN para Safari ou Apple Mail. Tudo isso enquanto mantém um backdoor instalado no seu telefone, sobre o qual você nada pode fazer.
É doloroso ver a Apple dando um passo em uma direção tão perigosa. Só posso esperar que a reação causada pela voz estridente da minoria faça a Apple reconsiderar, e talvez mudar a implementação em versões futuras do iOS.