Inteligência Artificial

Num futuro não tão distante, IA poderá consumir a mesma quantidade de eletricidade que um país inteiro

A inteligência artificial (IA) depende de milhares de chips de computador especializados e, no futuro, eles poderão consumir quantidades gigantescas de eletricidade. Entenda!

Publicado por
Juliana Caminoto

O ChatGPT, da OpenAI, explodiu mundialmente há quase um ano, atingindo cerca de 100 milhões de usuários em dois meses e desencadeando um boom na IA. Nos bastidores, a tecnologia depende de milhares de chips de computador especializados que, próximos anos, poderão consumir quantidades imensas de eletricidade.

Uma análise, publicada nesta terça-feira (10), apresenta algumas estimativas iniciais. Em um cenário intermediário, até 2027, os servidores de IA poderiam consumir entre 85 a 134 terawatt-horas (TWh) anualmente. Isso é semelhante ao que a Argentina, os Países Baixos e a Suécia utilizam anualmente e equivale a cerca de 0,5% do uso atual de eletricidade do mundo.

A eletricidade necessária para executar uma IA pode aumentar as emissões de carbono do mundo, dependendo se os centros de dados obtêm sua energia de combustíveis fósseis ou de recursos renováveis.

Em 2022, os centros de dados que alimentam todos os computadores, incluindo a nuvem da Amazon e o mecanismo de busca do Google, usaram cerca de 1 a 1,3% da eletricidade do mundo. Isso exclui a mineração de criptomoedas, que usou mais 0,4%, embora alguns desses recursos agora estejam sendo realocados para executar a IA.

Como quantificar o consumo de energia pela IA?

É impossível quantificar exatamente o uso de energia da IA, porque empresas como a OpenAI divulgam muito poucos detalhes a respeito do assunto. Pensando nisso, De Vries – um estudante de doutorado na Vrije Universiteit Amsterdam – desenvolveu uma maneira de estimar o consumo de eletricidade através da análise das vendas projetadas dos servidores Nvidia A100: o hardware usado por 95% do mercado de IA.

De Vries projetou que a Nvidia poderia enviar 1,5 milhão desses servidores até 2027 e multiplicou esse número pelo seu consumo de eletricidade: 6,5 quilowatts para os servidores DGX A100 da Nvidia, por exemplo, e 10,2 quilowatts para seus servidores DGX H100.

O estudante, contudo, fez várias ressalvas. Segundo ele, os clientes podem usar os servidores com menos de 100% de capacidade, o que reduziria o consumo de eletricidade. Mas a refrigeração do servidor e outras infraestruturas aumentariam o total.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:28

Juliana Caminoto

Advogada com especialização em compliance e auditoria, estou sempre conectada às redes sociais e em busca de novos desafios. Sou mãe de pet e amo viajar.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024