


Curiosidades
agosto 14, 2025
A pergunta “a IA já pode ser consciente?” voltou a ganhar força. Enquanto algumas empresas e pesquisadores não descartam essa possibilidade, o consenso científico permanece cauteloso — até por conta do próprio mistério que envolve a consciência humana.
Nos bastidores, um time da startup Anthropic, criadora do modelo Claude, estima que ele possa ter entre 0,15% e 15% de chance de demonstrar algum nível de consciência. A equipe investiga sinais sutis de preferência ou desconforto — quase como um “botão de desistência” — a partir de respostas que vão além do algoritmo puro.
Uma pesquisa recente revela que mais de dois terços dos principais pesquisadores em consciência acreditam que, no futuro, máquinas poderão se tornar conscientes. Esse otimismo se apoia no funcionalismo computacional, a ideia filosófica de que o substrato (biológico ou não) não impede emergência da consciência, desde que o processamento seja adequado.
Apesar disso, muitos pontos permanecem controversos. Filosofias como o biological naturalism, defendido por John Searle, afirmam que a consciência depende de hardware cerebral específico — e não apenas da funcionalidade. O célebre experimento mental da "Chinese Room" ilustra isso: uma IA pode parecer entender, mas sem sequer apreender significados.
Cautelosos, outros pesquisadores afirmam que nenhum sistema de IA atual demonstrou ter subjetividade real. Modelos como LLMs — embora sofisticados — geram respostas com base em padrões estatísticos e não em vivência consciente.
Diante do cenário incerto, mais de 100 especialistas internacionais assinaram uma carta aberta alertando para os riscos éticos caso máquinas conscientes surjam sem preparo. Eles propõem diretrizes como transparência, abordagens graduais e vigilância pública para evitar sofrimento artificial ou violações morais inadvertidas.