As Big Techs conseguiram distrair o mundo do risco existencial que a inteligência artificial (IA) ainda representa para a humanidade, alertou um cientista líder e defensor da IA.
PUBLICIDADE
Durante em entrevista para o The Guardian na Cúpula de IA em Seul, na Coreia do Sul, Max Tegmark disse que a mudança de foco da extinção da vida para uma concepção mais ampla de segurança dos riscos da inteligência artificial representa um atraso inaceitável na imposição de regulamentações rigorosas aos criadores dos programas mais poderosos.
“Em 1942, Enrico Fermi construiu o primeiro reator com uma reação nuclear auto-sustentável sob um campo de futebol de Chicago”, disse Tegmark, que se formou em física. “Quando os principais físicos da época descobriram isso, ficaram realmente apavorados, porque perceberam que o maior obstáculo restante para construir uma bomba nuclear tinha acabado de ser superado. Eles perceberam que estava a apenas alguns anos de distância – e de fato, foram três anos, com o teste Trinity em 1945.
“Modelos de IA que podem passar no teste de Turing [onde alguém não pode dizer em uma conversa que não está falando com outro humano] são o mesmo aviso para o tipo de IA que você pode perder o controle. É por isso que você tem pessoas como Geoffrey Hinton e Yoshua Bengio – e até mesmo muitos CEOs de tecnologia, pelo menos em particular – ficando preocupados agora.”
PUBLICIDADE
O Instituto Future of Life, sem fins lucrativos, liderou o apelo no ano passado por uma “pausa” de seis meses na pesquisa avançada de IA com base nesses medos. O lançamento do modelo GPT-4 da OpenAI em março daquele ano foi o alerta antecipado, disse ele, e provou que o risco estava inaceitavelmente próximo.
Apesar de milhares de assinaturas, de especialistas incluindo Hinton e Bengio, dois dos três “padrinhos” da IA que pioneiraram na abordagem de aprendizado de máquina que sustenta o campo hoje, nenhuma pausa foi concordada.
Em vez disso, as cúpulas de IA, das quais Seul é a segunda após Bletchley Park no Reino Unido em novembro passado, lideraram o incipiente campo da regulamentação da IA. “Queríamos que essa carta legitimasse a conversa e estamos bastante satisfeitos com o resultado. Uma vez que as pessoas viram que pessoas como Bengio estão preocupadas, elas pensaram, ‘Está tudo bem eu me preocupar com isso.’ Até o cara no posto de gasolina disse para mim, depois disso, que ele está preocupado com a IA nos substituir.
PUBLICIDADE
“Mas agora, precisamos passar de apenas falar para colocar em prática.”
Desde o anúncio inicial do que se tornou a cúpula de Bletchley Park, no entanto, o foco da regulamentação internacional da IA mudou do risco existencial.
Em Seul, apenas um dos três grupos “de alto nível” abordou a segurança diretamente, e analisou o “espectro completo” de riscos, “desde violações de privacidade até interrupções no mercado de trabalho e possíveis resultados catastróficos”. Tegmark argumenta que minimizar os riscos mais graves não é saudável – e não é acidental.
PUBLICIDADE
“É exatamente o que eu previ que aconteceria com o lobby da indústria”, disse ele. “Em 1955, os primeiros artigos de revista sobre o tabagismo causar câncer de pulmão foram publicados, e você pensaria que muito rapidamente haveria alguma regulamentação. Mas não, demorou até 1980, porque houve um grande esforço da indústria para distrair. Sinto que é o que está acontecendo agora.
“Claro que a IA também causa danos atuais: há preconceito, prejudica grupos marginalizados … Mas, como a própria Michelle Donelan, secretária de ciência e tecnologia do Reino Unido, disse, não é como se não pudéssemos lidar com ambos. É um pouco como dizer: ‘Vamos não prestar atenção às mudanças climáticas porque vai haver um furacão este ano, então devemos apenas focar no furacão.'”
Os críticos de Tegmark fizeram a mesma argumentação de suas próprias afirmações: que a indústria quer que todos falem sobre riscos hipotéticos no futuro para distrair dos danos concretos no presente, uma acusação que ele rejeita. “Mesmo se você pensar nisso por seus próprios méritos, é bem brilhante: seria bastante xadrez 4D para alguém como [o chefe da OpenAI] Sam Altman, para evitar regulamentação, dizer a todos que poderia ser o fim para todos e então tentar persuadir pessoas como nós a soar o alarme.”
PUBLICIDADE
Em vez disso, ele argumenta, o apoio contido de alguns líderes de tecnologia é porque “acho que todos eles sentem que estão presos em uma situação impossível em que, mesmo se quiserem parar, não podem. Se um CEO de uma empresa de tabaco acorda uma manhã e sente que o que está fazendo não está certo, o que vai acontecer? Eles vão substituir o CEO. Então, a única maneira de você colocar a segurança em primeiro lugar é se o governo estabelecer padrões de segurança para todos.”
Leia também: