Gigantes americanas da IA se unem para buscar autorregulação

Google, Microsoft, Anthropic e OpenAI, quatro das empresas americanas que lideram o cenário da Inteligência Artificial (IA) de última geração, anunciaram nesta quarta-feira (26) a criação de um novo órgão profissional para combater os riscos associados a esta tecnologia

Publicado por
Agence France-Presse

O “Frontier Model Forum” terá a responsabilidade de promover o “desenvolvimento responsável” dos modelos de IA mais sofisticados e “minimizar os potenciais riscos”, de acordo com um comunicado à imprensa.

Assim, os membros se comprometem a compartilhar boas práticas entre si e com legisladores, pesquisadores e associações, para que esses sistemas sejam menos perigosos.

A rápida implantação da IA generativa, por meio de plataformas como ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), está gerando preocupação entre autoridades e a sociedade civil.

A União Europeia (UE) está finalizando um projeto de regulação desta tecnologia que deve impor obrigações às empresas do setor, como transparência com os usuários ou controle humano sobre as máquinas.

Já nos Estados Unidos, as tensões políticas com o Congresso impedem qualquer esforço neste campo.

Esta é uma das razões pelas quais a Casa Branca pede que as partes interessadas garantam a segurança de seus produtos, em nome de seu “dever moral”, afirmou a vice-presidente americana, Kamala Harris, no início de maio.

Na semana passada, o governo de Joe Biden garantiu os “compromissos” da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI para defender “três princípios” no desenvolvimento de IA: segurança, proteção e confiança.

Supõe-se que estas empresas devem testar seus programas antecipadamente, combater ataques cibernéticos e fraudes e encontrar maneiras de sinalizar que o conteúdo foi gerado por IA, para que seja claramente autenticado como tal.

Os dirigentes destas companhias também não negam os riscos.

Em junho, Sam Altman, diretor da OpenAI, e Demis Hassabis, presidente da DeepMind (Google), exortaram a luta contra “os riscos de extinção” da humanidade “ligada à IA”.

Durante uma audiência no Congresso, Altman endossou a ideia cada vez mais popular de criar uma agência internacional encarregada da regulação da inteligência artificial, como as que existem em outros campos.

Enquanto isso, a OpenAI está trabalhando em uma IA chamada “geral”, com habilidades cognitivas semelhantes às dos humanos.

Em uma publicação de 6 de julho, a empresa abordou que tem como foco os “modelos de fronteira” da IA, “modelos fundamentais altamente sofisticados que poderiam adquirir capacidades perigosas suficientes para oferecer sérios riscos à segurança pública”.

A gigante americana ainda alerta que esses recursos perigosos podem “surgir inesperadamente” e que “é realmente difícil impedir que um modelo implantado seja mal utilizado”.

Leia mais:

Este post foi modificado pela última vez em 26 de julho de 2023 12:34

Agence France-Presse

Posts recentes

IA pode transformar a gestão de crises; saiba como

A gestão de crises tradicional - baseada em processos manuais e decisões centralizadas - mostra-se…

19 de setembro de 2024

FTC dos EUA diz que usuários de redes sociais não têm controle sobre dados usados pela IA

Empresas de redes sociais coletam, compartilham e processam vastos conjuntos de informações sobre seus usuários,…

19 de setembro de 2024

Salesforce aposta em agentes de IA autônomos para revolucionar o atendimento ao cliente

A Salesforce, conhecida por revolucionar o setor de software com o modelo de Software como…

19 de setembro de 2024

Órgão da ONU faz recomendações para governar a IA

Um órgão consultivo de inteligência artificial (IA) das Nações Unidas divulgou na quinta-feira (19) seu…

19 de setembro de 2024

YouTube usará IA para gerar ideias, títulos e até vídeos completos

A inteligência artificial (IA) está se espalhando por todo o portfólio de produtos do Google…

19 de setembro de 2024

LinkedIn está treinando modelos de IA com seus dados

O LinkedIn começou a usar os dados de seus usuários para treinar modelos de inteligência…

19 de setembro de 2024