(O Google usa sua própria tecnologia semelhante, chamada de unidades de processamento tensor, ou TPUs.)
PUBLICIDADE
Deveria haver mais conversas sobre o impacto ambiental da IA, diz Sasha Luccioni, pesquisadora em IA ética e sustentável da Hugging Face. “Se você deseja salvar o planeta com IA, deve considerar também a pegada ambiental [da IA primeiro]”, diz ela. “Não faz sentido queimar uma floresta e depois usar IA para rastrear o desmatamento.”
Contando o custo do carbono
Muitos pesquisadores tentam – com dificuldade – quantificar o impacto ambiental da IA. É uma tarefa difícil por uma série de razões, entre elas, porque as empresas por trás das ferramentas mais populares, bem como aquelas que vendem os chips que as alimentam, não estão muito dispostas a compartilhar detalhes sobre quanta energia seus sistemas usam.
Há também uma intangibilidade na IA que impede a contabilização adequada de sua pegada ambiental. “Acho que a IA não faz parte dessas promessas ou iniciativas, porque as pessoas acham que não é material, de alguma forma”, diz Luccioni. “Você pode pensar em um computador ou algo que tenha uma forma física, mas a IA é tão efêmera. Mesmo para empresas que estão tentando fazer esforços, normalmente não vejo IA no radar.”
PUBLICIDADE
Essa efemeridade também existe para os usuários finais. Sabemos que estamos causando danos ao planeta quando ligamos nossos carros porque podemos ver ou cheirar a fumaça saindo do escapamento depois que giramos a chave.
Com AI, você não pode ver os servidores baseados em nuvem sendo consultados ou os chips vasculhando sua memória para concluir as tarefas de processamento solicitadas. Para muitos, os enormes volumes de água que correm pelos canos dentro dos data centers, implantados para manter os computadores que alimentam as ferramentas de IA refrigerados, são invisíveis. Basta digitar sua consulta, aguardar alguns segundos e obter uma resposta. Onde está o mal nisso?
Colocando números no problema
Vamos começar com o uso da água. Pesquisadores estimaram que o chatbot de IA generativo usaria até 500ml de água – uma garrafa de água de tamanho padrão – a cada 20 perguntas e respostas correspondentes. E o ChatGPT provavelmente ficaria mais sedento com o lançamento do GPT-4.
PUBLICIDADE
Estimar o uso de energia e a pegada de carbono resultante é mais complicado. Uma análise de terceiros estimou que o treinamento do GPT-3, um antecessor do ChatGPT, consumiu 1.287 MWh e levou a emissões de mais de 550 toneladas de dióxido de carbono (CO2), semelhante a voar entre Nova York e São Francisco 550 vezes.
Por bem ou por mal
Os especialistas em tecnologia estão tentando encontrar maneiras de manter a inteligência da IA sem o enorme uso de energia. Mas é difícil. Um estudo recente , publicado no início deste mês, sugere que muitas das soluções já apresentadas acabam trocando o desempenho pelo bem ambiental.
Sacrificar o desempenho para reduzir o impacto ecológico parece improvável. Mas precisamos repensar o uso da IA – e rápido.
PUBLICIDADE
Os analistas de tecnologia do Gartner acreditam que, até 2025, a menos que haja uma reformulação radical na forma como desenvolvemos sistemas de IA para melhor contabilizar seu impacto ambiental, o consumo de energia das ferramentas de IA será maior do que o de toda a força de trabalho humana.
Até 2030, o treinamento em aprendizado de máquina e o armazenamento de dados poderão representar 3,5% de todo o consumo global de eletricidade. Antes da revolução da IA, os data centers consumiam 1% de toda a demanda mundial de eletricidade em um determinado ano.
Então o que deveríamos fazer? Tratar a IA com uma maior consciência de seus impactos ambientais prejudiciais, juntamente com a admiração por seus poderes de dedução aparentemente mágicos – seria um começo.
PUBLICIDADE
Leia também: