Inteligência Artificial

Big Techs distraíram o mundo dos riscos em IA, afirma cientista

Publicado por
Vinicius Siqueira

As Big Techs conseguiram distrair o mundo do risco existencial que a inteligência artificial (IA) ainda representa para a humanidade, alertou um cientista líder e defensor da IA.

Durante em entrevista para o The Guardian na Cúpula de IA em Seul, na Coreia do Sul, Max Tegmark disse que a mudança de foco da extinção da vida para uma concepção mais ampla de segurança dos riscos da inteligência artificial representa um atraso inaceitável na imposição de regulamentações rigorosas aos criadores dos programas mais poderosos.

“Em 1942, Enrico Fermi construiu o primeiro reator com uma reação nuclear auto-sustentável sob um campo de futebol de Chicago”, disse Tegmark, que se formou em física. “Quando os principais físicos da época descobriram isso, ficaram realmente apavorados, porque perceberam que o maior obstáculo restante para construir uma bomba nuclear tinha acabado de ser superado. Eles perceberam que estava a apenas alguns anos de distância – e de fato, foram três anos, com o teste Trinity em 1945.

O Instituto Future of Life, sem fins lucrativos, liderou o apelo no ano passado por uma “pausa” de seis meses na pesquisa avançada de IA com base nesses medos. O lançamento do modelo GPT-4 da OpenAI em março daquele ano foi o alerta antecipado, disse ele, e provou que o risco estava inaceitavelmente próximo.

Apesar de milhares de assinaturas, de especialistas incluindo Hinton e Bengio, dois dos três “padrinhos” da IA que pioneiraram na abordagem de aprendizado de máquina que sustenta o campo hoje, nenhuma pausa foi concordada.

Em vez disso, as cúpulas de IA, das quais Seul é a segunda após Bletchley Park no Reino Unido em novembro passado, lideraram o incipiente campo da regulamentação da IA. “Queríamos que essa carta legitimasse a conversa e estamos bastante satisfeitos com o resultado. Uma vez que as pessoas viram que pessoas como Bengio estão preocupadas, elas pensaram, ‘Está tudo bem eu me preocupar com isso.’ Até o cara no posto de gasolina disse para mim, depois disso, que ele está preocupado com a IA nos substituir.

“Mas agora, precisamos passar de apenas falar para colocar em prática.”

Desde o anúncio inicial do que se tornou a cúpula de Bletchley Park, no entanto, o foco da regulamentação internacional da IA mudou do risco existencial.

Em Seul, apenas um dos três grupos “de alto nível” abordou a segurança diretamente, e analisou o “espectro completo” de riscos, “desde violações de privacidade até interrupções no mercado de trabalho e possíveis resultados catastróficos”. Tegmark argumenta que minimizar os riscos mais graves não é saudável – e não é acidental.

“É exatamente o que eu previ que aconteceria com o lobby da indústria”, disse ele. “Em 1955, os primeiros artigos de revista sobre o tabagismo causar câncer de pulmão foram publicados, e você pensaria que muito rapidamente haveria alguma regulamentação. Mas não, demorou até 1980, porque houve um grande esforço da indústria para distrair. Sinto que é o que está acontecendo agora.

“Claro que a IA também causa danos atuais: há preconceito, prejudica grupos marginalizados … Mas, como a própria Michelle Donelan, secretária de ciência e tecnologia do Reino Unido, disse, não é como se não pudéssemos lidar com ambos. É um pouco como dizer: ‘Vamos não prestar atenção às mudanças climáticas porque vai haver um furacão este ano, então devemos apenas focar no furacão.'”

Os críticos de Tegmark fizeram a mesma argumentação de suas próprias afirmações: que a indústria quer que todos falem sobre riscos hipotéticos no futuro para distrair dos danos concretos no presente, uma acusação que ele rejeita. “Mesmo se você pensar nisso por seus próprios méritos, é bem brilhante: seria bastante xadrez 4D para alguém como [o chefe da OpenAI] Sam Altman, para evitar regulamentação, dizer a todos que poderia ser o fim para todos e então tentar persuadir pessoas como nós a soar o alarme.”

Em vez disso, ele argumenta, o apoio contido de alguns líderes de tecnologia é porque “acho que todos eles sentem que estão presos em uma situação impossível em que, mesmo se quiserem parar, não podem. Se um CEO de uma empresa de tabaco acorda uma manhã e sente que o que está fazendo não está certo, o que vai acontecer? Eles vão substituir o CEO. Então, a única maneira de você colocar a segurança em primeiro lugar é se o governo estabelecer padrões de segurança para todos.”

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:56

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024