Adobe não vai treinar os modelos de IA com os seus dados

A IA generativa e outras tecnologias semelhantes estão na moda hoje em dia. Mas também é importante dar-se atenção às questões regulamentares e de privacidade que surgem pelo caminho. Na sua conferência WWDC 2024, há algumas horas, a Apple fez questão de realçar os aspectos de privacidade das suas capacidades “Apple Intelligence”. Isto numa tentativa de ganhar a confiança dos consumidores como refere o XDA. No extremo oposto do espetro, a Adobe viu-se em maus lençóis com os clientes depois de ter sido descoberto que os seus Termos de Serviço (ToS) actualizados permitiam à empresa treinar os seus modelos de IA generativa no conteúdo dos utilizadores. A empresa inverteu agora a sua posição relativamente a este assunto.

Adobe não vai treinar os modelos de IA com os seus dados

A Adobe tem estado a apostar tudo na IA desde há alguns meses, razão pela qual se levantaram sobrancelhas quando a sua linguagem jurídica sugeriu que a empresa poderia treinar os seus modelos de IA nos dados dos clientes. No entanto, numa nova publicação no blogue, a Adobe afirma que não se envolverá em qualquer atividade deste tipo. Também não reivindicará qualquer propriedade do conteúdo do cliente. Afirma que só acede ao conteúdo dos clientes quando existem mandatos legais para o fazer. Dito isto, irá atualizar a linguagem dos seus ToS para clarificar melhor a sua posição relativamente aos dados gerados pelos clientes.

A Adobe afirma que os seus clientes têm total propriedade sobre o seu conteúdo. Entretanto e embora os seus dados não se utilizem para treinar ferramentas de IA generativas como o Adobe Firefly, os utilizadores podem optar por partilhar dados de utilização e outras características do conteúdo para melhorar outras tecnologias, como o mascaramento e a remoção de fundo com base na aprendizagem automática. Além disso, a Adobe sublinhou que não analisa os dados armazenados localmente no seu computador. Mas se carregar dados para a sua plataforma na cloud, estes serão automaticamente analisados para identificar material de abuso sexual de crianças (CSAM).

Entretanto a empresa observou que, com as tecnologias de IA a evoluir rapidamente, é crucial ter políticas claras em torno do tema. Para esse efeito, irá publicar os seus ToS atualizados na próxima semana. Isto centrando-se em termos legais concisos e relativamente simples, que sejam mais fáceis de compreender.

Ao seguir a Leak no Google Notícias está a ajudar-nos. Carregue aqui e depois em seguir.
Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Leia também