Apple atrasa varredura de imagem do iPhone e sistema de segurança de exploração infantil para além de 2021
A Apple atraiu muita atenção indesejada recentemente quando anunciou um sistema que permitiria escanear imagens e determinar se elas representavam abuso e exploração sexual infantil. Obviamente, para muitos, isso trouxe preocupação com a privacidade. Em primeiro lugar, como reconheceria o que foi considerado exploração infantil? Quão preciso seria? Ele sinalizaria algo que não deveria? Em segundo lugar, muitos ficaram alarmados com a ideia da Apple acessar suas bibliotecas de fotos sem permissão. Devido a essas grandes preocupações, a Apple atrasou o sistema de segurança pelo menos até 2022.
A Apple atualizou seus planos para o lançamento deste sistema de segurança em um comunicado à imprensa em 3 de setembro de 2021. Anunciado originalmente em 5 de agosto de 2021, o sistema foi projetado para digitalizar bibliotecas de imagens do iPhone automaticamente e determinar se as imagens incluíam instâncias ou não de abuso e exploração sexual infantil. O anúncio desse plano gerou uma onda de críticas ao longo de agosto sobre invasão de privacidade e qualidade do sistema. Com isso em mente, a Apple atrasou o lançamento do referido sistema para melhorá-lo “ nos próximos meses. ”
Muitos viram a próxima varredura de imagens da Apple e o sistema de detecção de exploração infantil como uma violação invasiva da privacidade do cliente, forçando a Apple a atrasar o sistema.
À primeira vista, os motivos da Apple podem parecer admiráveis, mas há muito a ser considerado no lançamento de tal sistema, como até a Apple admitiu.
“ Anteriormente, anunciamos planos para recursos destinados a ajudar a proteger crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los e para ajudar a limitar a disseminação de material de abuso sexual infantil, ” A Apple escreveu em seu comunicado atualizado. “ Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes. ”
Parece que a Apple eventualmente seguirá em frente com este sistema, independentemente das críticas. O atraso é coletar feedback e garantir que esse recurso funcione de maneira adequada.
A Apple tem se envolvido em muitas conversas preocupantes nos últimos tempos. O lançamento do site #AppleToo prometia divulgar histórias de assédio e discriminação dentro da empresa devido às falhas do RH da Apple. Enquanto isso, a Apple também foi acusada de ter fechado um canal interno do Slack em relação à igualdade de pagamento, usando como base a aplicação inconsistente das regras do Slack da empresa.
Com esses problemas rondando a empresa agora, ainda é bastante preocupante que a Apple esteja desenvolvendo um sistema aparentemente invasivo, mesmo que o objetivo pareça admirável. Pelo menos por enquanto, os recursos de segurança de varredura de imagem da Apple foram adiados para o restante de 2021. Fique ligado enquanto seguimos esta história e outras notícias da Apple assim que estiverem disponíveis.
Nenhum comentário