A aplicação FaceApp voltou a ficar viral! Mas é um perigo…

Se por acaso for ao Facebook ou Instagram, é bem provável que vá ver amigos ou amigas ‘mascarados’ com uma cara do sexo oposto! Não, ninguém andou a fazer promoções em operações de mudança de sexo, é tudo devido ao facto da aplicaçao FaceApp ter voltado à ribalta nas últimas semanas.

No entanto, apesar de tudo isto ser muito engraçado, tenho algumas reticências em relação a esta app.

A aplicação FaceApp voltou a ficar viral! Mas é um perigo…

faceapp

Portanto, caso não saiba, a app FaceApp chegou originalmente ao mercado em 2017, impressionando tudo e todos com as suas capacidades de envelhecimento. Claro que não foi nem de perto nem de longe a primeira aplicação a tentar um efeito destes, mas o resultado final não sõ parecia bem mais detalhado em relação às restantes apps, como às vezes até chegava a ser assustador, tais eram as semelhanças com outros membros da família mais velhos. (No meu caso, com o filtro de envelhecimento, fiquei igualzinho ao meu irmão mais velho!)

Dito isto, esta eficiência e exatidão nos detalhes levantou logo alguns ‘red flags’ às firmas de segurança na web. Afinal de contas, estamos a fazer upload das nossas fotos para um sistema que irá correr um algoritmo IA para criar o efeito final. Ou seja, estamos a alimentar uma máquina de aprendizagem máquina de terceiros, com as nossas próprias caras! Contudo, as pessoas continuam a usar a aplicação sem qualquer problema…

Assim, voltando à app, durante quase 3 anos, a app continuou a fazer sucessos nas redes sociais. Se bem que de uma forma um pouco mais amena. Até agora! É que em 2020, a FaceApp voltou a rebentar com um novo filtro que muda o ‘sexo’ do utilizador, e que mais uma vez, apresenta uma imagem super detalhada! (E mais uma vez assustadora!)

Similarmente a 2017, não é a primeira vez que vemos uma aplicação a fazer algo deste tipo. No entanto, é a primeira vez que vemos algo baseado em IA.

Estamos a falar de uma App que pode muito bem ser usada para perfis falsos, tal é o poder do algoritmo. Ainda assim, o que é realmente assustador no meio de tudo isto é a política de privacidade da empresa. Ora leia:

“Não utilizamos as fotografias que nos fornece para qualquer outra razão senão oferecer o resultado final com o efeito implementado. Os vídeos sao editados localmente no aparelho, por isso, não recebemos os vídeos quando usa a aplicação, além disso, não recolhemos ou utilizamos a informação do conteúdo.”

Até aqui tudo bem não é? Sim, o problema é que esta é a parte a negrito! Que obviamente, é a única parte que a grande maioria dos utilizadores irão ler. Mas há mais… E ai é que vai perceber o que realmente está a ser recolhido e utilizado.

Se por acaso quiser retirar as fotos da base de dados da empresa, vai ter de ir às definições da App, ir a Suporte e abrir um ticket com a palavra ‘Privacy’. Esta é a única maneira de remover as fotos que enviou para o FaceApp.

Dito tudo isto, até o FBI já veio a público comentar a situação, dizendo para os utilizadores terem cuidado com o FaceApp:

  • “Qualquer aplicação ou produto desenvolvido na Russia como o FaceApp, poderá ser uma potencial ameaça.”

Entretanto, claro que tudo isto pode ser um exagero. E o FaceApp ser apenas uma aplicação para a brincadeira… No entanto, também pode não ser só uma brincadeira! Ou seja, estar a alimentar um algoritmo de reconhecimento facial baseado em IA que já é aparentemente poderosíssimo, pode não ser a melhor ideia do mundo.


Ademais, o que pensa sobre tudo isto? Partilhe connosco a sua opinião nos comentários em baixo.

Siga a Leak no Google Notícias e no MSN Portugal.

Receba as notícias Leak no seu e-mail. Carregue aqui para se registar. É grátis!

Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

Leia também