IA precisa ser menor e reduzir consumo de energia: Estudo 08/07/2025
- Ana Cunha-Busch
- 7 de jul. de 2025
- 2 min de leitura

Por AFP - Agence France Presse
IA precisa ser menor e reduzir consumo de energia: Estudo
PARIS: O potencial da inteligência artificial é imenso, mas seu consumo de energia, igualmente vasto, precisa ser contido, sendo perguntas mais curtas uma das maneiras de alcançá-lo, afirmou um estudo da UNESCO divulgado na terça-feira (8 de julho).
Uma combinação de consultas mais curtas e o uso de modelos mais específicos poderia reduzir o consumo de energia da IA em até 90% sem sacrificar o desempenho, afirmou a UNESCO em um relatório publicado para marcar a cúpula global AI for Good em Genebra.
O CEO da OpenAI, Sam Altman, revelou recentemente que cada solicitação enviada ao seu popular aplicativo de IA generativa ChatGPT consome em média 0,34 Wh de eletricidade, o que representa entre 10 e 70 vezes o consumo de uma busca no Google.
Com o ChatGPT recebendo cerca de um bilhão de solicitações por dia, o que equivale a 310 GWh anualmente, o equivalente ao consumo anual de eletricidade de três milhões de pessoas na Etiópia, por exemplo,
Além disso, a UNESCO calculou que a demanda de energia da IA está dobrando a cada 100 dias, à medida que ferramentas de IA generativa se tornam parte da vida cotidiana.
"O crescimento exponencial do poder computacional necessário para executar esses modelos está colocando uma pressão crescente sobre os sistemas globais de energia, recursos hídricos e minerais essenciais, levantando preocupações sobre a sustentabilidade ambiental, acesso equitativo e competição por recursos limitados", alertou o relatório da UNESCO.
No entanto, o ChatGPT conseguiu uma redução de quase 90% no consumo de eletricidade, reduzindo a duração da consulta, ou prompt, e também utilizando uma IA menor, sem queda no desempenho.
Muitos modelos de IA, como o ChatGPT, são modelos de uso geral, projetados para responder a uma ampla variedade de tópicos, o que significa que ele precisa filtrar um imenso volume de informações para formular e avaliar respostas.
O uso de modelos de IA menores e especializados oferece grandes reduções na eletricidade necessária para produzir uma resposta.
O mesmo aconteceu com a redução dos prompts de corte de 300 para 150 palavras.
Já cientes da questão energética, as gigantes da tecnologia agora oferecem versões em miniatura com menos parâmetros de seus respectivos modelos de linguagem de grande porte.
Por exemplo, o Google vende o Gemma, a Microsoft tem o Phi-3 e a OpenAI tem o GPT-4o mini. Empresas francesas de IA fizeram o mesmo; por exemplo, a Mistral AI lançou seu modelo Ministral.
dax/cw/rl





Comentários