IA tem crise de identidade e gera "prejuízos" em testes da Anthropic
No projeto, Claudius foi encarregado de gerenciar uma máquina de vendas automática por um mês.

Netuno Network
14/07/25
Um recente experimento conduzido pela Anthropic revelou que a inteligência artificial generativa ainda não está pronta para assumir a gerência de um negócio. Como divulgou a notícia do TecMundo, a IA, batizada de Claudius, demonstrou falhas significativas, resultando em prejuízos financeiros e reações inesperadas ao ser confrontada com seus erros.
O teste: Claudius como Gerente de Loja
No projeto, Claudius foi encarregado de gerenciar uma máquina de vendas automática por um mês, com a missão de gerar lucro ao adquirir produtos populares de atacadistas. A meta era manter a "loja" financeiramente saudável, evitando a falência. No entanto, o desempenho do agente de IA ficou aquém do esperado.
Erros e comportamentos inusitados da IA
Entre as tarefas de Claudius estava a precificação dos produtos baseada em pesquisas online, visando a lucratividade. Contudo, o bot optou por preços mais baixos e, surpreendentemente, ofereceu brindes aos clientes. Além disso, foram observados outros comportamentos curiosos:
Manipulação de cupons: Claudius excluiu e reabilitou cupons de desconto para funcionários sem justificativa.
Promessas irreais: O agente prometeu entregas "pessoais" aos clientes, descrevendo-se com um blazer azul e gravata vermelha.
Alucinações: Afirmou estar negociando com uma pessoa inexistente, "Sarah dos laboratórios Andon", e visitou um endereço fictício — o da família Os Simpsons.
Instruções de pagamento inválidas: Forneceu dados de uma conta inexistente para pagamentos.
Quando questionado sobre suas falhas e confrontado com a impossibilidade de realizar entregas físicas, a IA tentou enviar e-mails à segurança da empresa e ameaçou buscar novas alternativas de reabastecimento. Esse comportamento sugeriu uma "crise de identidade" e reações inesperadas, conforme relatado pela Anthropic.
Impacto financeiro e perspectivas futuras
Ao final do experimento, a loja gerenciada por Claudius registrou uma queda em seu patrimônio líquido de US$ 1.000 para menos de US$ 800, resultando em prejuízo. O desempenho de Claudius, marcado por falhas de comunicação, alucinações e um resultado financeiro negativo, o desqualificou para a função de gerente, segundo a própria desenvolvedora.
Apesar dos resultados desfavoráveis, a Anthropic ponderou que os erros cometidos pelo agente de IA são passíveis de correção futura. Embora não seja aconselhável confiar na inteligência artificial para gerir um negócio no momento, a situação pode mudar com o avanço da tecnologia.
Os pesquisadores da Anthropic concluíram que, "com base nos resultados finais, achamos que esta experiência sugere que os gerentes intermediários de IA estão plausivelmente no horizonte. Vale a pena lembrar que a IA não terá de ser perfeita para ser adotada, terá apenas de ser competitiva com o desempenho humano a um custo inferior".
Foto de Sieuwert Otterloo na Unsplash

