Filosofia do longo prazo molda debate sobre Inteligência Artificial

A filosofia do longo prazo, principal ideologia do Vale do Silício, centraliza os debates sobre o papel da Inteligência Artificial (IA) na extinção da humanidade. No entanto, seus críticos alertam que ela não abrange os problemas associados a esta nova tecnologia, como os roubos de dados e o enviesamento dos algoritmos.

Publicado por
Agence France-Presse

O bilionário Elon Musk e o diretor-executivo da OpenAI, Sam Altman, surpreenderam quando alertaram em uma carta aberta que a IA representava um risco de extinção para a humanidade.

Seus críticos consideraram, entretanto, que os empresários fizeram o pronunciamento com a intenção de afirmar que somente seus projetos poderiam apresentar uma salvação.

As ideologias associadas à filosofia do longo prazo, como o transumanismo – a crença de que os seres humanos podem ser transformados com a tecnologia – ou o altruísmo eficaz (criar o máximo de bem-estar possível) já exercem uma influência considerável nas universidades anglo-saxônicas e no setor tecnológico.

Peter Thiel e Marc Andreessen são dois dos grandes investidores que começaram a financiar empresas que procuram prolongar a vida humana.

Simultaneamente, cresce o número de críticos destas correntes, que, em termos gerais, se concentram na melhoria do bem-estar da humanidade a longo prazo, em vez de focar nos indivíduos de hoje. Para estes opositores, a ameaça é clara: ela exerce muita influência nos debates públicos e pode ser perigosa.

Alertas

O escritor e historiador Emile Torres abraçou esta corrente ideológica no passado, mas agora é um de seus maiores críticos.

Em uma entrevista à AFP, alertou que a filosofia do longo prazo tem como base os mesmos princípios que justificaram assassinatos em massa e genocídios no passado.

Os defensores desta ideologia se projetam em um futuro distante em que milhões de pessoas viajarão ao espaço para colonizar novos planetas. Também acreditam que se deve ter o mesmo dever com cada um destes futuros humanos, assim como com qualquer um dos que vivem hoje. E como são tantos, eles têm muito mais peso que a humanidade atual.

Para Torres, este raciocínio torna o longo prazo “verdadeiramente perigoso”.

“Quando você tem uma visão utópica do futuro” e “as combina com uma moral utilitarista que diz que o fim pode justificar os meios, é perigoso”, explica o autor do livro “Human Extinction: A History of the Science and Ethics of Annihilation” (Extinção humana: História da Ciência e a Ética da Aniquilação, em tradução livre).

Assim como outros especialistas, Torres busca redirecionar o debate para os problemas reais causados pela IA, como os direitos autorais, os preconceitos cognitivos ou a concentração de riqueza por um grupo de empresas.

Mas esse discurso, no entanto, esbarra nas opiniões cada vez mais alarmantes sobre o futuro, diz o autor.

“Falar sobre a extinção da humanidade, de um acontecimento verdadeiramente apocalíptico em que todos morrem, é muito mais emocionante do que falar sobre trabalhadores quenianos que recebem US$ 1,32 (cerca de R$ 7, na cotação atual) por hora” para moderar o conteúdo do IA, ressalta o historiador.

Eugenia?

A filosofia do longo prazo surgiu do trabalho do filósofo sueco Nick Bostrom sobre o risco existencial e o transumanismo nas décadas de 1990 e 2000.

De acordo com a pesquisadora Timnit Gebru, ex-membro da equipe de pesquisa sobre ética e IA do Google – que foi demitida – o transumanismo tem sido vinculado à eugenia (tentativa de “melhorar” a humanidade por meio da seleção genética) desde o seu início.

O biólogo britânico Julian Huxley, que assinou o termo, também era um teórico da eugenia. Bostrom também foi, por muito tempo, acusado de apoiar este movimento.

O filósofo, que atualmente é presidente do Instituto para o Futuro da Humanidade da Universidade de Oxford, pediu desculpas em janeiro após admitir ter escrito publicações racistas na internet na década de 1990.

“Sou a favor da eugenia? Não, não no sentido em que o termo é geralmente entendido”, disse ele na época.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:57

Agence France-Presse

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024