Siga o Olhar Do dedo no Google Discover
Tudo sobre Lucidez Sintético
O progresso dos modelos de lucidez sintético (IA) focados em raciocínio vem transformando a forma porquê soluções tecnológicas lidam com problemas complexos. No entanto, um novo relatório destaca que essa evolução tem um preço cume: o dispêndio energético da IA. A pesquisa, conduzida pelo projeto AI Energy Score, mostra que sistemas capazes de raciocinar de forma semelhante a humanos podem consumir até 100 vezes mais vigor do que modelos tradicionais. As informações são da Bloomberg.
Os pesquisadores analisaram 40 modelos de IA abertos, incluindo tecnologias de OpenAI, Google e Microsoft. O levantamento demonstrou disparidades significativas no consumo de vigor entre modelos com e sem recursos de raciocínio. Um exemplo extremo foi observado em uma versão compacta do padrão R1 da DeepSeek, que consumiu somente 50 watt-hora sem o raciocínio ativado, mas saltou para 308.186 watt-hora quando esse recurso foi habilitado.
Segundo os autores, grande segmento do aumento no dispêndio energético está relacionada ao volume de texto gerado por sistemas avançados de raciocínio. Essa particularidade, embora aumente a precisão em tarefas complexas, impõe maior fardo às máquinas responsáveis pelo processamento.

Impactos na infraestrutura e desafios ambientais
A intensificação do uso de IA ocorre paralelamente à expansão de data centers ao volta do mundo. A competição entre empresas de tecnologia por estruturas cada vez maiores já provoca efeitos perceptíveis. Uma investigação anterior da Bloomberg apontou que regiões próximas à data centers registraram aumentos de até 267% no preço da vigor ao longo de cinco anos.
Os modelos de raciocínio vêm ganhando destaque desde que a OpenAI lançou o o1, seu primeiro padrão devotado a essa habilidade. No entanto, apesar da popularização dessas ferramentas, ainda há poucas pesquisas sobre o impacto energético da inferência — o processo de realização dos modelos em seguida o treinamento.
Para ilustrar essa diferença, o estudo testou todos os modelos no mesmo hardware, usando desde perguntas simples até problemas matemáticos complexos, enquanto monitorava o consumo de vigor em tempo real com a instrumento CodeCarbon. Os resultados mostram variações amplas: um dos modelos Phi 4, da Microsoft, saltou de 18 para 9.462 watt-hora quando o raciocínio foi ativado, enquanto o maior padrão gpt-oss da OpenAI variou entre 5.313 e 8.504 watt-hora, dependendo da intensidade configurada.
Principais pontos destacados pelo estudo:
- Modelos de IA com raciocínio consomem até 100 vezes mais vigor.
- DeepSeek apresenta as maiores discrepâncias entre modos com e sem raciocínio.
- Data centers impulsionam aumentos no dispêndio energético em várias regiões.
- A inferência vem sendo reconhecida porquê principal nascente de consumo em IA avançada.
- Especialistas defendem o uso de modelos mais adequados a cada tarefa, evitando desperdício.

Os autores reforçam que o estudo procura ampliar a compreensão sobre a evolução das necessidades energéticas da IA, além de alertar que nem toda tarefa exige o uso de modelos altamente intensivos. Para eles, saber escolher a IA certa pode reduzir significativamente o impacto ambiental e operacional.
Leia mais:
Satya Nadella, CEO da Microsoft, reconheceu recentemente que o setor precisa ocupar a “permissão social para consumir vigor”. Segundo ele, isso só será provável se a IA gerar benefícios amplos à sociedade e apressar o prolongamento econômico.