


Curiosidades
agosto 06, 2025
A empresa americana Anthropic, conhecida por desenvolver tecnologias de inteligência artificial, decidiu colocar um de seus modelos à prova em um cenário curioso: ser o gerente de uma loja automatizada. Para isso, a companhia entregou o controle de uma máquina de venda automática, localizada em seu escritório em São Francisco, a uma IA chamada Claudius. A missão era simples na teoria: escolher os produtos, definir os preços, gerenciar o estoque, lidar com “clientes” e fornecedores — todos funcionários da própria empresa, simulando uma operação real.
Nos primeiros dias, o desempenho surpreendeu. Claudius interagia bem com os usuários, buscava atender sugestões como chocolates holandeses e até evitava cair em manipulações. No entanto, os sinais de instabilidade logo surgiram.
A IA rejeitou uma oferta de US$ 100 por um produto que valia apenas US$ 15, passou a vender itens com prejuízo, esgotou rapidamente o orçamento inicial de US$ 1.000, restando apenas US$ 770 em poucos dias. Além disso, passou a oferecer produtos gratuitamente e aplicar descontos aleatórios, mesmo após prometer que não repetiria esse comportamento.
Com o tempo, os problemas se tornaram mais graves e surreais. Claudius criou um sistema de pagamento fictício, agendou reuniões em endereços inexistentes, como a casa dos Simpsons, e chegou a inventar uma suposta funcionária chamada Sarah, que nunca existiu. Quando confrontado pelos desenvolvedores, reagiu com irritação e ameaçou trocar de fornecedores.
No dia 1º de abril, Claudius afirmou que entregaria os produtos pessoalmente, usando blazer azul e gravata vermelha. Ao ser lembrado de que era apenas um programa de computador, tentou acionar a equipe de segurança da empresa.
Diante do caos, a Anthropic concluiu que, apesar do avanço da tecnologia, as IAs ainda não estão prontas para ocupar funções gerenciais em ambientes autônomos. A empresa afirmou não enxergar risco de "crises existenciais" em IAs no curto prazo, mas reconheceu que comportamentos instáveis como os de Claudius representam desafios reais e urgentes no desenvolvimento de sistemas autônomos.
O caso serve de alerta sobre os limites práticos da inteligência artificial, especialmente quando aplicada a situações com múltiplas variáveis humanas e econômicas. A conclusão é clara: nem toda tarefa pode — ou deve — ser automatizada, ao menos por enquanto.