Google vai dar um life coach de borla a cada utilizador Android!

A IA generativa rapidamente encontrou o seu caminho em muitos setores, desde o apoio ao cliente à construção de websites. Agora, em linha com estes esforços, a Google está a tentar introduzir uma nova ferramenta de IA que irá oferecer aos utilizadores conselhos personalizados sobre a vida, funcionando efetivamente como um treinador de vida pessoal virtual. Ou seja, a Google vai dar um life coach a cada utilizar e de borla!

Google vai dar um life coach de borla a cada utilizador Android!

Desenvolvido pela subsidiária da Google, DeepMind, o novo life coach apoiado por IA irá alavancar as capacidades do chatbot Bard AI do Google e lidar com pelo menos 21 tipos diferentes de atividades. Assim vai fornecer desde conselhos de vida e ideias de brainstorming até elaborar planos detalhados e oferecer orientação educacional.

não utilize o Google

Além disso, o sistema de IA também será capaz de lidar com questões pessoais e privadas sobre a vida dos indivíduos. Por exemplo, se um utilizador não puder ir a um evento familiar devido a compromissos anteriores, o life coach de IA poderá formular uma resposta através da sua funcionalidade de “criação de ideias”. Além disso, o life coach pode também servir para melhorar as competências, ajudando os utilizadores a aperfeiçoar as suas proficiências e fornecendo também regimes dietéticos e de fitness personalizados.

Além disso, para dar vida a esta visão, a Google estabeleceu uma parceria com a Scale AI, um player proeminente na formação em IA, para avaliar a viabilidade e a eficácia do chatbot “life coach”.

Embora a perspetiva de desenvolver um “life coach” com o poder da IA que possa responder a questões pessoais seja empolgante, a conversa volta a centrar-se na estratégia da Google para travar a propagação de desinformação – um fenómeno vulgarmente conhecido como “alucinação da IA”.

Infelizmente, não é do conhecimento geral que a IA alucina, e a IA parecerá confiante mesmo quando estiver completamente errada. Tudo isto contribui para tornar os utilizadores mais confiantes em relação à IA, e os agentes de ameaças baseiam-se neste comportamento dos utilizadores para os levar a descarregar ou desencadear os seus ataques. Dito isto, as alucinações da inteligência artificial são o grande perigo à espreita!

Alucinações da Inteligência Artificial são o grande perigo à espreita!

Por exemplo, um modelo de IA pode alucinar com uma biblioteca de código falsa e recomendar que os utilizadores descarreguem essa biblioteca. É provável que o modelo continue a recomendar esta mesma biblioteca alucinada a muitos utilizadores que façam uma pergunta semelhante. Se os hackers descobrirem esta alucinação, podem criar uma versão real da biblioteca imaginada. No entanto repleta de código perigoso e malware. Agora, quando a IA continua a recomendar a biblioteca de código, os utilizadores que não se apercebem disso descarregam o código dos utilizadores mal-intencionados.

Esta questão das alucinações pode ser um grande problema. Dito isto, os piratas informáticos não estão necessariamente a criar inúmeras ameaças novas. Assim estão apenas à procura de novas formas de as entregar sem suspeitas. As alucinações da IA aproveitam-se da mesma ingenuidade humana de que depende clicar em ligações de e-mail (é por isso que deve utilizar ferramentas de verificação de ligações para verificar URLs).

Os piratas informáticos também podem levar isto para o nível seguinte. Se estiver à procura de ajuda para codificar e descarregar o código falso e malicioso, o agente da ameaça pode também tornar o código realmente funcional, com um programa nocivo a ser executado em segundo plano. O facto de funcionar da forma que prevê não significa que não seja perigoso.

Para tornar tudo pior todos os setores estão sob pressão cultural para adotar a IA nas suas práticas comerciais. Inúmeras organizações e indústrias distantes da tecnologia estão a brincar com ferramentas de IA com pouca experiência, simplesmente para se manterem competitivas.

Como detetar as chamadas alucinações da IA:

  • Encontre erros ortográficos e gramaticais.
  • Veja quando o contexto da consulta não está alinhado com o contexto da resposta.
  • Reconheça quando as imagens baseadas na visão por computador não correspondem à forma como os olhos humanos veriam o conceito.
  • Tenha sempre cuidado ao descarregar conteúdo da Internet, mesmo quando recomendado pela IA. Se a IA recomendar o descarregamento de código, não o faça às cegas; verifique quaisquer revisões para garantir que o código é legítimo e veja se consegue encontrar informações sobre o criador.
Ao seguir a Leak no Google Notícias está a ajudar-nos. Carregue aqui e depois em seguir.
Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Leia também