tab all up bet-Apple vai checar iPhones à distância para verificar imagens de abuso sexual infantil
tab all up bet
A Apple anunciou que implementará um sistema para analisar iPhones dos Estados Unidostab all up betbusca de imagens de abuso sexual infantil; críticos temem que sistema possa ser usado também para cercear liberdades individuais.tab all up bet de :Temos os melhores relatórios de previsão, você está convidado a participar
A Apple anunciou que vai colocartab all up betuso um sistema para localizar material de abuso sexual infantil (identificado pela sigla CSAM,tab all up betinglês)tab all up betdispositivos de clientes dos Estados Unidos.
Antes de uma imagem ser armazenada no iCloud, a tecnologia irá procurar correspondências com material de abuso sexual infantil já conhecidos.
Assim, se uma correspondência for encontrada, um revisor humano avaliará o caso e relatará o usuário às autoridades, segundo disse a Apple.
Isso levantou, no entanto, preocupações com a privacidade - de que a tecnologia possa ser expandida para rastrear telefonestab all up betbusca de conteúdo proibido ou mesmo discurso político. Especialistas temem que a tecnologia possa ser usada por governos autoritários para espionar seus cidadãos.
A Apple disse que as novas versões do iOS e iPadOS - que serão lançadas ainda este ano - terão "novos aplicativos de criptografia para ajudar a limitar a propagação do material de abuso sexual infantil online, ao mesmo tempotab all up betque foram projetadas para a privacidade do usuário".
O sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecidas compilado pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA e outras organizações de segurança infantil.
Essas imagens são traduzidastab all up bet"hashes", códigos numéricos que podem ser "combinados" com uma imagemtab all up betum dispositivo Apple.
A Apple diz que a tecnologia também será capaz de detectar versões editadas, mas semelhantes, das imagens originais.
tab all up bet
'Alto nível de precisão'"Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagemtab all up betrelação ao material de abuso sexual infantil conhecido", disse a Apple.
A empresa afirmou que o sistema tem "um nível extremamente alto de precisão e garante menos de uma chancetab all up betum trilhão por ano de sinalizar incorretamente uma determinada conta".
Além disso, a Apple diz que revisará manualmente cada relatório para confirmar se há uma correspondência. Em seguida, pode tomar medidas para desativar a conta de um usuário e relatar às autoridades.
A empresa diz que a nova tecnologia oferece benefícios de privacidade "significativos"tab all up betrelação às técnicas existentes - já que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de material de abuso sexual infantil conhecido emtab all up betconta do iCloud.
Alguns especialistastab all up betprivacidade expressaram preocupações.
"Independentemente de quais sejam os planos de longo prazo da Apple, eles enviaram um sinal muito claro. Emtab all up betopinião (muito influente), é seguro construir sistemas que examinam os telefones dos usuáriostab all up betbusca de conteúdo proibido", disse Matthew Green, pesquisador de segurança da Johns Hopkins University, nos Estados Unidos.
"Se eles estão certos ou errados nesse ponto, pouco importa. Isso quebrará a barreira - os governos exigirão isso de todos."