Categories Inova+Posted on 11/09/202511/09/2025Quanto de energia a IA do Google usa? Os bastidores do número por trás de cada prompt O que você vai descobrir a seguir: • Quanto consome, em energia, carbono e água, uma pergunta de texto feita ao Gemini do Google. • Por que medir esse impacto vai muito além do chip que roda a resposta. • Como o Google reduziu em mais de 30 vezes o custo ambiental médio de cada resposta em um ano. Quando você digita uma pergunta no Gemini, o modelo de inteligência artificial do Google, a impressão é de que tudo acontece “na nuvem”. Mas essa nuvem tem pés no chão: são centros de dados, servidores e sistemas de refrigeração que consomem energia e água. Pela primeira vez, o Google apresentou uma metodologia detalhada para calcular esse impacto, em um estudo chamado “Measuring the environmental impact of AI inference”. Segundo o relatório, o prompt de texto mediano no Gemini Apps consome em média 0,24 watt-hora, emite 0,03 grama de CO₂ equivalente e usa cerca de 0,26 mililitro de água (aproximadamente cinco gotas). Em termos práticos, isso equivale a assistir menos de dez segundos de televisão. É importante destacar que os números se referem especificamente a consultas de texto em ambiente de produção — não incluem outros tipos de uso mais pesados, como imagens ou vídeo, nem o treinamento dos modelos. O que entra na conta Muitas estimativas públicas calculam apenas a energia ativa de chips especializados (como TPUs e GPUs). O estudo do Google buscou refletir a operação real em larga escala, incluindo também: • Máquinas ociosas, necessárias para lidar com picos de demanda; • O papel do CPU e da memória RAM no processamento; • O consumo indireto dos data centers, como refrigeração e distribuição de energia (fator medido pelo PUE); • A água utilizada nos sistemas de resfriamento. Essa abordagem mostra que a operação envolve mais do que apenas o chip que gera a resposta. Ganhos de eficiência O relatório aponta uma evolução notável: em um período recente de 12 meses, a energia média por prompt de texto caiu cerca de 33 vezes, enquanto a pegada de carbono foi reduzida em 44 vezes, tudo isso mantendo ou até elevando a qualidade das respostas. Esses resultados são fruto de melhorias conjuntas em software, hardware e gestão de data centers. Entre as estratégias que costumam contribuir para esse tipo de eficiência estão arquiteturas mais enxutas (como Mixture-of-Experts), técnicas de compressão e quantização, além de hardware customizado, como as TPUs mais recentes desenvolvidas pelo Google. Embora nem todas essas práticas tenham sido listadas no estudo específico, fazem parte do ecossistema de inovações mencionadas em outras publicações da empresa. O que ainda falta considerar Há, claro, pontos a observar. O estudo é interno do Google e não foi auditado por terceiros. Além disso, não considera toda a cadeia de suprimentos, como emissões ligadas à fabricação do hardware ou à infraestrutura elétrica. Ainda assim, representa o cálculo mais abrangente já divulgado por uma big tech para consultas de IA em produção. O que fica claro é que medir corretamente importa tanto quanto inovar. Ao abrir os números, o Google convida a discussão sobre como a inteligência artificial pode crescer sem ampliar de forma descontrolada sua pegada ambiental. Se a promessa da IA é transformar ciência, saúde e educação, será preciso acompanhar de perto o custo de cada resposta. Calculating our AI energy consumption Créditos: Imagem Destaque – miss.cabul/Shutterstock Compartilhe esse artigo: