A ficção científica está repleta de inteligências artificiais que se tornam desonestas e se voltam contra os seus criadores humanos. HAL-9000. O Matrix. Skynet, entre outros. De facto, a humanidade, ao que parece, tem um profundo medo da rebelião da máquina. Com o surgimento de grandes modelos de linguagem (LLMs) cada vez mais sofisticados, como o ChatGPT, a questão dos perigos que a IA pode representar tornou-se ainda mais pertinente. Mas a verdade é que a Inteligência Artificial não representa um perigo para os humanos.
Inteligência Artificial não representa um perigo para os humanos!
De acordo com um novo estudo liderado pelos cientistas informáticos Iryna Gurevych, da Universidade Técnica de Darmstadt, na Alemanha, e Harish Tayyar Madabushi, da Universidade de Bath, no Reino Unido, estes modelos não são susceptíveis de se tornarem desonestos.
Na verdade, estão demasiado limitados pela sua programação, são incapazes de adquirir novas competências sem instrução e, por isso, permanecem sob controlo humano.
Isto significa que, embora continue a ser possível utilizarmos os modelos para fins nefastos, os LLMs, por si só, podem desenvolver-se sem preocupações.
“O receio tem sido que, à medida que os modelos se tornam cada vez maiores, sejam capazes de resolver novos problemas que não podemos prever atualmente. Isto representa a ameaça de que estes modelos maiores possam adquirir capacidades perigosas, incluindo raciocínio e planeamento”, afirma Tayyar Madabushi.
“O nosso estudo mostra que o receio de que um modelo se vá embora e faça algo completamente inesperado, inovador e potencialmente perigoso não é válido.”
Nos últimos dois anos, a sofisticação dos LLMs cresceu de forma surpreendente. Atualmente, são capazes de conduzir uma conversa relativamente coerente. Isto através de texto, de uma forma que parece natural e humana.
Não são perfeitos. Como não são, de facto, uma forma de inteligência! Faltam-lhes as capacidades críticas necessárias para separar, em muitos casos, a informação boa da má. Mas, mesmo assim, conseguem transmitir informação má de uma forma convincente.
Recentemente, alguns investigadores analisaram a possibilidade de as chamadas capacidades emergentes serem desenvolvidas de forma independente pelos LLM. Isto em vez de serem deliberadamente codificadas na sua programação. Um exemplo particular é o de um LLM que foi capaz de responder a perguntas sobre situações sociais. Tudo sem treino específico para essas situações.
A observação foi que, à medida que os LLMs aumentam de escala, tornam-se mais poderosos e podem realizar mais tarefas. Não era claro se este aumento de escala também implicava um risco de comportamento com o qual não estaríamos preparados para lidar. Assim, os investigadores levaram a cabo uma investigação para verificar se tais instâncias eram verdadeiramente emergentes ou se o programa estava simplesmente a atuar de forma complexa dentro dos limites do seu código.
Fizeram experiências com quatro modelos LLM diferentes, atribuindo-lhes tarefas previamente identificadas como emergentes. E não encontraram nenhuma evidência para o desenvolvimento de pensamento diferenciado, ou que qualquer um dos modelos fosse capaz de atuar fora da sua programação.
Para todos os quatro modelos, a capacidade de seguir instruções, a memorização e a proficiência linguística explicaram todas as capacidades exibidas pelos LLMs.
Receba as notícias Leak no seu e-mail. Carregue aqui para se registar. É grátis!