Inteligência Artificial

Big Techs distraíram o mundo dos riscos em IA, afirma cientista

Publicado por
Vinicius Siqueira

As Big Techs conseguiram distrair o mundo do risco existencial que a inteligência artificial (IA) ainda representa para a humanidade, alertou um cientista líder e defensor da IA.

Durante em entrevista para o The Guardian na Cúpula de IA em Seul, na Coreia do Sul, Max Tegmark disse que a mudança de foco da extinção da vida para uma concepção mais ampla de segurança dos riscos da inteligência artificial representa um atraso inaceitável na imposição de regulamentações rigorosas aos criadores dos programas mais poderosos.

“Em 1942, Enrico Fermi construiu o primeiro reator com uma reação nuclear auto-sustentável sob um campo de futebol de Chicago”, disse Tegmark, que se formou em física. “Quando os principais físicos da época descobriram isso, ficaram realmente apavorados, porque perceberam que o maior obstáculo restante para construir uma bomba nuclear tinha acabado de ser superado. Eles perceberam que estava a apenas alguns anos de distância – e de fato, foram três anos, com o teste Trinity em 1945.

O Instituto Future of Life, sem fins lucrativos, liderou o apelo no ano passado por uma “pausa” de seis meses na pesquisa avançada de IA com base nesses medos. O lançamento do modelo GPT-4 da OpenAI em março daquele ano foi o alerta antecipado, disse ele, e provou que o risco estava inaceitavelmente próximo.

Apesar de milhares de assinaturas, de especialistas incluindo Hinton e Bengio, dois dos três “padrinhos” da IA que pioneiraram na abordagem de aprendizado de máquina que sustenta o campo hoje, nenhuma pausa foi concordada.

Em vez disso, as cúpulas de IA, das quais Seul é a segunda após Bletchley Park no Reino Unido em novembro passado, lideraram o incipiente campo da regulamentação da IA. “Queríamos que essa carta legitimasse a conversa e estamos bastante satisfeitos com o resultado. Uma vez que as pessoas viram que pessoas como Bengio estão preocupadas, elas pensaram, ‘Está tudo bem eu me preocupar com isso.’ Até o cara no posto de gasolina disse para mim, depois disso, que ele está preocupado com a IA nos substituir.

“Mas agora, precisamos passar de apenas falar para colocar em prática.”

Desde o anúncio inicial do que se tornou a cúpula de Bletchley Park, no entanto, o foco da regulamentação internacional da IA mudou do risco existencial.

Em Seul, apenas um dos três grupos “de alto nível” abordou a segurança diretamente, e analisou o “espectro completo” de riscos, “desde violações de privacidade até interrupções no mercado de trabalho e possíveis resultados catastróficos”. Tegmark argumenta que minimizar os riscos mais graves não é saudável – e não é acidental.

“É exatamente o que eu previ que aconteceria com o lobby da indústria”, disse ele. “Em 1955, os primeiros artigos de revista sobre o tabagismo causar câncer de pulmão foram publicados, e você pensaria que muito rapidamente haveria alguma regulamentação. Mas não, demorou até 1980, porque houve um grande esforço da indústria para distrair. Sinto que é o que está acontecendo agora.

“Claro que a IA também causa danos atuais: há preconceito, prejudica grupos marginalizados … Mas, como a própria Michelle Donelan, secretária de ciência e tecnologia do Reino Unido, disse, não é como se não pudéssemos lidar com ambos. É um pouco como dizer: ‘Vamos não prestar atenção às mudanças climáticas porque vai haver um furacão este ano, então devemos apenas focar no furacão.'”

Os críticos de Tegmark fizeram a mesma argumentação de suas próprias afirmações: que a indústria quer que todos falem sobre riscos hipotéticos no futuro para distrair dos danos concretos no presente, uma acusação que ele rejeita. “Mesmo se você pensar nisso por seus próprios méritos, é bem brilhante: seria bastante xadrez 4D para alguém como [o chefe da OpenAI] Sam Altman, para evitar regulamentação, dizer a todos que poderia ser o fim para todos e então tentar persuadir pessoas como nós a soar o alarme.”

Em vez disso, ele argumenta, o apoio contido de alguns líderes de tecnologia é porque “acho que todos eles sentem que estão presos em uma situação impossível em que, mesmo se quiserem parar, não podem. Se um CEO de uma empresa de tabaco acorda uma manhã e sente que o que está fazendo não está certo, o que vai acontecer? Eles vão substituir o CEO. Então, a única maneira de você colocar a segurança em primeiro lugar é se o governo estabelecer padrões de segurança para todos.”

Leia também:

Este post foi modificado pela última vez em 27 de maio de 2024 15:56

Vinicius Siqueira

Posts recentes

Arqueólogos fazem grande descoberta usando IA; confira

Arqueólogos da Universidade de Yamagata, no Japão, em colaboração com a IBM Research, utilizaram inteligência…

27 de setembro de 2024

NotebookLM agora suporta YouTube e arquivos de áudio

O Google acaba de atualizar sua ferramenta NotebookLM, adicionando suporte para vídeos do YouTube e…

27 de setembro de 2024

Reino Unido libera parceria da Amazon com Anthropic

O regulador de concorrência da Grã-Bretanha disse na sexta-feira (27) que a parceria de inteligência…

27 de setembro de 2024

Google revoluciona o design de chips com o AlphaChip

O Google DeepMind acaba de apresentar o AlphaChip, um sistema de inteligência artificial (IA) que…

27 de setembro de 2024

IA abre caminho para cura de doenças raras; confira

Pesquisadores da Harvard Medical School desenvolveram recentemente um modelo de IA chamado TxGNN que pode…

26 de setembro de 2024

Startup indiana de diagnóstico por IA capta US$ 65 milhões

A Qure.AI, startup indiana, afirma que suas soluções de inteligência artificial (IA) superam radiologistas e…

26 de setembro de 2024