Já vos aconteceu receber a resposta da IA e parecer-vos perfeita para enviar? Há uma contradição no centro de toda a conversa sobre inteligência artificial que raramente é dita com franqueza, a IA tornou-se suficientemente credível para ser adotada em massa como ferramenta de trabalho, mas ainda não é suficientemente fiável para dispensar a supervisão humana. E é exatamente nesta fissura invisível, entre a credibilidade percebida e a fiabilidade real em que as alucinações prosperam.
O termo “alucinação” descreve o comportamento dos modelos de linguagem quando geram informação que não existe, ou que existe de forma diferente, com a mesma confiança com que formulariam uma afirmação correta, não há hesitação, não há aviso. O modelo produz uma citação académica com autores reais, uma data plausível, um título convincente, e a fonte simplesmente não existe, ou existe, mas diz o oposto, a resposta parece certa porque foi construída para parecer certa. Confirma tudo antes de enviar?
Quem trabalha com IA diariamente sabe que os modelos atuais são extraordinariamente competentes na forma. Estruturam bem, escrevem bem, argumentam com coerência aparente. É precisamente essa competência formal que torna o problema das alucinações tão traiçoeiro, o conteúdo errado chega embrulhado num raciocínio que parece sólido.
Aqui entra o que os investigadores comportamentais chamam de automation bias, o viés de automação. Quando os sistemas automatizados nos dão uma resposta, a nossa tendência cognitiva é aceitar, especialmente quando a resposta está formatada com a autoridade visual de algo bem construído, não é preguiça, é psicologia. O cérebro humano reduz o esforço cognitivo em contextos onde confia na ferramenta e as interfaces de IA foram desenhadas, consciente ou inconscientemente, para gerar exatamente esse tipo de confiança. Um dashboard limpo, uma resposta estruturada, um tom seguro, tudo isso comunica “podes confiar em mim” antes de qualquer verificação factual.
Durante anos, a preocupação dominante sobre IA era a desinformação produzida intencionalmente. Deepfakes, conteúdo político manipulado, campanhas de propaganda algorítmica, este continua a ser um desafio real. Mas há um risco menos visível e igualmente sério que se instalou nas empresas, nas redações, nas agências de comunicação e nas salas de aula, a desinformação acidental, produzida por profissionais bem-intencionados que delegaram a verificação à ferramenta que estava a criar o problema.
Neste momento, a IA já tem credibilidade suficiente para ser aceite sem ser questionada em muitos contextos profissionais. Segundo o estudo Work Trend Index da Microsoft, mais de 75% dos trabalhadores em contextos urbanos usam IA durante o trabalho, e uma parte significativa utiliza-a para produzir conteúdo que vai para publicação direta ou para documentos de tomada de decisão. O que raramente aparece nesses relatórios é a taxa de verificação do que é produzido.
Este uso direto cria um ecossistema onde o erro se propaga com velocidade e com a aparência de legitimidade. Um artigo produzido com IA que cita um estudo que não existe é partilhado, referenciado, incluído em newsletters, e outro artigo cita esse artigo. A alucinação original foi canonizada por acumulação de referências e tornou-se, para efeitos práticos, “verdade”. No contexto de negócio, o equivalente é uma análise competitiva incorreta que alimenta uma decisão de produto, ou um benchmark salarial inventado que ancora uma negociação.
A resposta não é abandonar a IA, seria ineficiente e a prazo, economicamente inviável numa economia onde a produtividade individual está a ser redefinida por estas ferramentas, a resposta é mudar a relação com o resultado.
O profissional que usa IA de forma consciente trata o resultado como um rascunho qualificado, não como uma peça pronta a entregar. Usa o modelo para estruturar, para acelerar, para gerar hipóteses, para resumir grandes volumes de texto, dados, mas sabe que o raciocínio pode ter falhas e factos que precisam de verificação independente. A distinção entre geração e validação tem de ser consciente e deliberada. Na prática, isto significa três coisas: nunca publicar ou entregar conteúdo baseado em factos específicos, datas, citações ou estatísticas sem os verificar na fonte original; perceber que um prompt vago produz um resultado que parece confiante mas é ainda mais suscetível de alucinações porque o modelo tem mais espaço para inventar e cultivar o que se poderia chamar de ceticismo produtivo, a capacidade de olhar para um texto bem escrito e perguntar “mas isto é verdade?”, independentemente de quem ou o quê o escreveu.
O que está em causa não é apenas uma questão técnica de prompt engineering ou de escolha de modelos. É uma questão de literacia, no sentido mais profundo do termo, a capacidade de ler criticamente o que se recebe e isso aplica-se a qualquer documento, vindo de qualquer fonte, humana ou artificial.
E aqui regressa-se ao princípio a alucinação mais perigosa não é a que parece estranha, é a que parece exatamente certa.
Catarina Antunes, consultora de marca

