Policiar os discursos de Ăłdio e conteĂșdos ofensivos numa plataforma tĂŁo grande como o Facebook Ă© um grande desafio. Apesar de nĂŁo ser muito complicado filtrar palavras e frases desagradĂĄveis, a situação Ă© diferente quase se trata de memes. Neste caso Ă© muito mais difĂcil para o site detectar mensagens sensĂveis sem intervenção humana. Para tornar as coisas um pouco mais fĂĄceis, o Facebook estĂĄ a implementar um cĂŁo de guarda baseado em inteligĂȘncia artificial que tem a capacidade de descobrir, de forma simples, mensagens ofensivas.
Este sistema de inteligĂȘncia artificial que pode vasculhar uma imensa quantidade de dados num perĂodo muito curto de tempo, Ă© totalmente capaz de ler o texto que foi sobreposto numa imagem ou vĂdeo e compreende vĂĄrios idiomas. O nome deste sistema Ă© Rosetta e o Facebook perdeu algum tempo para explicar como funciona.
Este sistema de inteligĂȘncia artificial utiliza um algoritmo para detectar quais as regiĂ”es de uma imagem ou vĂdeo que provavelmente contĂȘm texto. Posteriormente, divide o texto suspeito em palavras que ele interpreta. O algoritmo deve ser versĂĄtil o suficiente para lidar com vĂĄrios idiomas diferentes, incluindo idiomas como o ĂĄrabe, escritos da direita para a esquerda.
A Rosetta foi treinada em imagens com anotaçÔes humanas e geradas artificialmente.
JĂĄ ao policiar vĂdeos, este sistema pode capturar frames individuais de vĂdeo e aplicar a mesma lĂłgica. No entanto, o Facebook diz que esta abordagem nĂŁo funciona a longo prazo.
O Facebook tem apostado cada vez mais no machine learning para ajudar a melhorar a plataforma, e parece que a moderação de conteĂșdos serĂĄ a prĂłxima ĂĄrea em que este sistema vai incidir com toda a força.
Receba as notĂcias Leak no seu e-mail. Carregue aqui para se registar. Ă grĂĄtis!