Sam Altman afirmava que agentes de IA transformariam radicalmente a produtividade das empresas em 2025

Há um ano, Sam Altman afirmava que agentes de IA transformariam radicalmente a produtividade das empresas em 2025. Aliás, 2025 seria o ano dos agentes de IA. A mensagem sugeria uma transição iminente para sistemas autônomos capazes de executar tarefas complexas de ponta a ponta. Meses depois, a realidade se impôs. A OpenAI em um memorando interno, o próprio Altman indicou que agentes passariam a ser apenas “um projeto entre outros”, com prioridade reduzida.

Essa inflexão não é acidental. Ela expõe um problema estrutural ignorado no auge do hype. Agentic AI não funciona bem fora de ambientes altamente controlados.

Pense, por exemplo, em reservar um hotel. A tarefa envolve múltiplas etapas como definir datas, filtrar preferências, ler avaliações, comparar preços. Em teoria, é perfeita para automação. Na prática, basta um único erro para comprometer todo o processo.

E erros não são exceção em LLMs, mas são parte inerente do seu funcionamento. Modelos como o GPT-5 ainda apresentam taxas de alucinação próximas de 10%. Em tarefas multi-etapas, isso é devastador. Um detalhe inventado, uma interpretação equivocada ou um clique errado invalida toda a cadeia de decisões.

O problema se agrava com preferências humanas. Algumas podem ser quantificadas, como preço, localização, nota média. Muitas não, como estética, atmosfera, sensação de segurança, perfil do público. Ao tentar otimizar apenas o que é mensurável, o agente corre o risco clássico da engenharia mal calibrada de entregar um hotel barato, porém degradado. Não é má intenção, é cegueira semântica.

Agentes generalistas enfrentam barreiras ainda maiores. Eles precisam lidar com interfaces gráficas, como mouse, cliques, menus dinâmicos. Algo trivial para humanos pode levar minutos para um agente, ou simplesmente falhar. Isso não é automação, mas é uma encenação de produtividade.

O caso dos agentes em 2025 sintetiza um padrão recorrente da indústria de IA. Previsões espetaculares seguidas de recuos silenciosos.

Aprendemos que agentes de IA são úteis em tarefas estreitas e ambientes determinísticos. Fora disso, esbarram em limites profundos de confiabilidade e contexto. Ignorar esses limites não acelera o futuro, mas, infelizmente, apenas prepara a próxima desilusão.

Por

Deixe comentário