Apple decidiu adiar a “investigação” às fotos no iCloud

Caso já não se lembre, a Apple anunciou no mês passado, que iria lançar a agora muito afamada funcionalidade CSAM, que basicamente serve para investigar as contas iCloud dos utilizadores, de forma a identificar a presença de conteúdo que vá contra as normas de proteção de menores (como pornografia infantil).

No entanto, ao que tudo indica, a Apple decidiu meter um travão da implementação da funcionalidade. Porquê? Bem… Aparentemente, é preciso melhorar o algoritmo antes da implementação final.

Apple decidiu adiar a “investigação” às fotos no iCloud

iphone 13

Portanto, a Apple tem todas as intenções de lançar uma funcionalidade capaz de apanhar ‘coisas estranhas’, no armazenamento iCloud dos utilizadores. Uma ideia apoiada por muitos, mas que não parece ter caído bem por muitos outros. Afinal, pode ser considerada como uma invasão da privacidade dos consumidores.

Dito tudo isto, segundo o feedback de vários grupos que têm testado a novidade. É boa ideia para a Apple continuar o desenvolvimento, antes de implementar a novidade por completo. Ora leia o que a Apple tem a dizer sobre o assunto:

“No mês passado, anunciámos planos para a implementação de funcionalidades destinadas a ajudar a proteger os mais novos de predadores sexuais. Que usam ferramentas de comunicação para recrutá-los e explorá-los. Ou seja, limitar a disseminação de material relacionado com abuso sexual infantil. No entanto, tendo como base o feedback de clientes, grupos de defesa, investigadores e outros… Decidimos adiar a implementação, para os próximos meses, de forma a coletar informações e fazer melhorias.”

A Apple quer proteger a privacidade dos utilizadores, com a implementação desta tecnologia

“O método da Apple para detetar um utilizador ‘suspeito’ tem, curiosamente, a privacidade do utilizador em mente. Assim, em vez de digitalizar imagens na nuvem. O sistema executa a correspondência no próprio dispositivo! Utilizando uma base de dados de hashes de imagens CSAM conhecidas, previamente fornecidas pelo NCMEC, e outras organizações de segurança infantil. Além deste sistema, a Apple também transforma ainda essa BD em um conjunto ilegível de hashes. Que é posteriormente armazenado com segurança nos dispositivos dos utilizadores.

Ademais, o que pensa sobre isto? Apoia a ideia? Quer mais funcionalidades como esta? Partilhe connosco a sua opinião nos comentários em baixo.

WhatsApp não respeita o RGPD. Multa de €225 milhões

Desde o início do ano, que muito se tem falado acerca da privacidade dos utilizadores dentro do WhatsApp! A aplicação de conversação online mais popular do planeta, que claro, pertence ao Facebook.

Pois bem, os reguladores Europeus acabaram de multar o WhatsApp em 225 milhões de euros, por falhas no cumprimento das leis de proteção de dados (RGPD), o que por sua vez, mete mais lenha na fogueira da falta de cuidado que o Facebook tem, com a nossa informação privada.

Portanto, a multa foi dada pelo DPC (Comissão de Proteção de Dados) da Irlanda, que é por sua vez o regulador principal do Facebook, no campo da privacidade em solo Europeu. Mas… Qual foi afinal a razão?

Leia o resto do artigo aqui.

Ao seguir a Leak no Google Notícias está a ajudar-nos. Carregue aqui e depois em seguir.
Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

Leia também