Esta é a prova de que não podemos confiar na inteligência artificial

A Inteligência Artificial pode ser útil para muitas coisas. Mas a verdade é que não podemos confiar nela. Aliás muito recentemente descobriram algo que pode colocar em causa a nossa existência. Mais do que um sistema que não falha a verdade é que se trata de um sistema que também pode errar redondamente. Infelizmente, não é do conhecimento geral que a IA alucina, e a IA parecerá confiante mesmo quando estiver completamente errada. Tudo isto contribui para tornar os utilizadores mais confiantes em relação à IA, e os agentes de ameaças baseiam-se neste comportamento dos utilizadores para os levar a descarregar ou desencadear os seus ataques. Dito isto, as alucinações da inteligência artificial são o grande perigo à espreita e prova de que não podemos mesmo confiar. 

Esta é a prova de que não podemos confiar na inteligência artificial

Por exemplo, um modelo de IA pode alucinar com uma biblioteca de código falsa e recomendar que os utilizadores descarreguem essa biblioteca. É provável que o modelo continue a recomendar esta mesma biblioteca alucinada a muitos utilizadores que façam uma pergunta semelhante. Se os hackers descobrirem esta alucinação, podem criar uma versão real da biblioteca imaginada. No entanto repleta de código perigoso e malware. Agora, quando a IA continua a recomendar a biblioteca de código, os utilizadores que não se apercebem disso descarregam o código dos utilizadores mal-intencionados.

confiar na inteligência artificial

Esta questão das alucinações pode ser um grande problema. Dito isto, os piratas informáticos não estão necessariamente a criar inúmeras ameaças novas. Assim estão apenas à procura de novas formas de as entregar sem suspeitas. As alucinações da IA aproveitam-se da mesma ingenuidade humana de que depende clicar em ligações de e-mail (é por isso que deve utilizar ferramentas de verificação de ligações para verificar URLs).

Os piratas informáticos também podem levar isto para o nível seguinte. Se estiver à procura de ajuda para codificar e descarregar o código falso e malicioso, o agente da ameaça pode também tornar o código realmente funcional, com um programa nocivo a ser executado em segundo plano. O facto de funcionar da forma que prevê não significa que não seja perigoso.

Para tornar tudo pior todos os setores estão sob pressão cultural para adotar a IA nas suas práticas comerciais. Inúmeras organizações e indústrias distantes da tecnologia estão a brincar com ferramentas de IA com pouca experiência, simplesmente para se manterem competitivas.

Como detetar as chamadas alucinações da IA:

  • Encontre erros ortográficos e gramaticais.
  • Veja quando o contexto da consulta não está alinhado com o contexto da resposta.
  • Reconheça quando as imagens baseadas na visão por computador não correspondem à forma como os olhos humanos veriam o conceito.
  • Tenha sempre cuidado ao descarregar conteúdo da Internet, mesmo quando recomendado pela IA. Se a IA recomendar o descarregamento de código, não o faça às cegas; verifique quaisquer revisões para garantir que o código é legítimo e veja se consegue encontrar informações sobre o criador.
Siga a Leak no Google Notícias e no MSN Portugal.

Receba as notícias Leak no seu e-mail. Carregue aqui para se registar. É grátis!

Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Leia também