A Inteligência Artificial pode ser útil para muitas coisas. Mas a verdade é que não podemos confiar nela. Aliás muito recentemente descobriram algo que pode colocar em causa a nossa existência. Mais do que um sistema que não falha a verdade é que se trata de um sistema que também pode errar redondamente. Infelizmente, não é do conhecimento geral que a IA alucina, e a IA parecerá confiante mesmo quando estiver completamente errada. Tudo isto contribui para tornar os utilizadores mais confiantes em relação à IA, e os agentes de ameaças baseiam-se neste comportamento dos utilizadores para os levar a descarregar ou desencadear os seus ataques. Dito isto, as alucinações da inteligência artificial são o grande perigo à espreita e prova de que não podemos mesmo confiar.
Esta é a prova de que não podemos confiar na inteligência artificial
Por exemplo, um modelo de IA pode alucinar com uma biblioteca de código falsa e recomendar que os utilizadores descarreguem essa biblioteca. É provável que o modelo continue a recomendar esta mesma biblioteca alucinada a muitos utilizadores que façam uma pergunta semelhante. Se os hackers descobrirem esta alucinação, podem criar uma versão real da biblioteca imaginada. No entanto repleta de código perigoso e malware. Agora, quando a IA continua a recomendar a biblioteca de código, os utilizadores que não se apercebem disso descarregam o código dos utilizadores mal-intencionados.
Esta questão das alucinações pode ser um grande problema. Dito isto, os piratas informáticos não estão necessariamente a criar inúmeras ameaças novas. Assim estão apenas à procura de novas formas de as entregar sem suspeitas. As alucinações da IA aproveitam-se da mesma ingenuidade humana de que depende clicar em ligações de e-mail (é por isso que deve utilizar ferramentas de verificação de ligações para verificar URLs).
Os piratas informáticos também podem levar isto para o nível seguinte. Se estiver à procura de ajuda para codificar e descarregar o código falso e malicioso, o agente da ameaça pode também tornar o código realmente funcional, com um programa nocivo a ser executado em segundo plano. O facto de funcionar da forma que prevê não significa que não seja perigoso.
Para tornar tudo pior todos os setores estão sob pressão cultural para adotar a IA nas suas práticas comerciais. Inúmeras organizações e indústrias distantes da tecnologia estão a brincar com ferramentas de IA com pouca experiência, simplesmente para se manterem competitivas.
Como detetar as chamadas alucinações da IA:
- Encontre erros ortográficos e gramaticais.
- Veja quando o contexto da consulta não está alinhado com o contexto da resposta.
- Reconheça quando as imagens baseadas na visão por computador não correspondem à forma como os olhos humanos veriam o conceito.
- Tenha sempre cuidado ao descarregar conteúdo da Internet, mesmo quando recomendado pela IA. Se a IA recomendar o descarregamento de código, não o faça às cegas; verifique quaisquer revisões para garantir que o código é legítimo e veja se consegue encontrar informações sobre o criador.
Receba as notícias Leak no seu e-mail. Carregue aqui para se registar. É grátis!