
Quando a Apple apresentou sua lista de iniciativas para impedir a disseminação de material de abuso sexual infantil, ou CSAM, no ano passado, elas foram controversas, para dizer o mínimo. Enquanto alguns elogiaram a empresa por agir, também não faltaram detratores, alguns dos quais disseram que os planos da Apple de escanear o dispositivo em busca de conteúdo ilegal exigiriam um grande impacto inaceitável na privacidade do usuário.
A reação fez com que a Apple atrasasse alguns dos recursos em setembro de 2021 e, no início desta semana, a empresa confirmou que abandonou seus esforços para criar o sistema de hash que teria pesquisado as bibliotecas de fotos do iCloud das pessoas em busca de materiais ilegais. Entramos em contato com algumas das organizações que se manifestaram a favor ou contra a iniciativa da Apple para ver o que eles tinham a dizer agora que ela acabou.
O Centro Nacional para Crianças Desaparecidas e Exploradas, ou NCMEC, seria um dos parceiros da Apple para seu sistema de digitalização de imagens, com o centro fornecendo os hashes de imagens CSAM conhecidas e assistência na revisão de qualquer coisa que o sistema encontrasse antes de entrar em contato com as autoridades.
Como você pode imaginar, o NCMEC não está particularmente satisfeito com a decisão da Apple de abandonar o recurso, e o anúncio simultâneo da empresa de medidas de privacidade do iCloud ainda mais fortes que criptografarão backups de ponta a ponta não parece estar ajudando. “O Centro Nacional para Crianças Desaparecidas e Exploradas se opõe a medidas de privacidade que ignoram as realidades indiscutíveis da exploração sexual infantil online”, disse Michelle DeLaune, presidente e CEO da organização, em comunicado ao The Verge. O restante da declaração diz:
Apoiamos medidas de privacidade para manter os dados pessoais seguros – mas a privacidade deve ser equilibrada com a realidade de que inúmeras crianças estão sendo vitimizadas sexualmente online todos os dias. A criptografia de ponta a ponta sem uma solução para detectar a exploração sexual infantil permitirá que ambientes sem lei floresçam, encoraje os predadores e deixe as crianças vítimas desprotegidas.
Ferramentas tecnológicas comprovadas existem e têm sido usadas com sucesso por mais de uma década que permitem a detecção de exploração sexual infantil com precisão cirúrgica. Em nome da privacidade, as empresas estão permitindo que a exploração sexual infantil ocorra sem controle em suas plataformas.
O NCMEC continua firme em convocar a indústria de tecnologia, líderes políticos e especialistas acadêmicos e políticos a se unirem para chegar a um acordo sobre soluções que alcancem a privacidade do consumidor enquanto priorizam a segurança infantil.
Em agosto de 2021, o Centro para Democracia e Tecnologia (CDT) postou uma carta aberta à Apple expressando preocupação com os planos da empresa e pedindo que ela os abandonasse. A carta foi assinada por cerca de 90 organizações, incluindo o CDT. “Estamos muito empolgados e consideramos isso uma grande vitória para nossa defesa em nome da segurança, privacidade e direitos humanos do usuário”, disse Mallory Knodel, diretor de tecnologia da organização, falando sobre o anúncio de cancelamento da Apple.
0 comentários:
Postar um comentário