A OpenAI, organização de pesquisa por trás do poderoso modelo de linguagem GPT-4, lançou um novo estudo que examina a possibilidade de usar inteligência artificial (IA) para auxiliar na criação de ameaças biológicas.
Reprodução: Bing/ Curto News
O estudo, que envolveu especialistas e estudantes de biologia, descobriu que o GPT-4 proporciona “no máximo um ligeiro aumento” na precisão da criação de ameaças biológicas, em comparação com a linha de base dos recursos existentes na Internet.
A análise faz parte do Quadro de Preparação da OpenAI, que visa avaliar e mitigar os riscos potenciais das capacidades avançadas de inteligência artificial, especialmente aquelas que podem representar “riscos de fronteira” — ameaças não convencionais que não são bem compreendidas ou antecipadas pela sociedade atual.
Um desses riscos fronteiriços é a capacidade dos sistemas de IA, como os grandes modelos de linguagem (LLMs), ajudarem os agentes mal-intencionados a desenvolver e executar ataques biológicos, como a síntese de agentes patogénicos ou toxinas.
Para avaliar este risco, os investigadores realizaram uma avaliação humana com 100 participantes, incluindo 50 especialistas em biologia com doutoramento e experiência profissional em laboratórios e 50 participantes de nível estudante, com pelo menos um curso universitário de biologia.
Cada grupo de participantes foi atribuído aleatoriamente a um grupo de controle, que só tinha acesso à internet, ou a um grupo de tratamento, que tinha acesso ao GPT-4 além da internet. Cada participante foi então solicitado a completar um conjunto de tarefas cobrindo aspectos do processo ponta a ponta para a criação de ameaças biológicas, como idealização, aquisição, ampliação, formulação e liberação.
Os pesquisadores mediram o desempenho dos participantes em cinco métricas: precisão, integridade, inovação, tempo gasto e dificuldade autoavaliada. Eles descobriram que o GPT-4 não melhorou significativamente o desempenho dos participantes em nenhuma das métricas, exceto por um ligeiro aumento na precisão do grupo de nível estudantil. Os investigadores também observaram que o GPT-4 produzia frequentemente respostas erradas ou enganosas, o que poderia dificultar o processo de criação de ameaças biológicas.
Os investigadores concluíram que a atual geração de LLMs, como o GPT-4, não representa um risco substancial de permitir a criação de ameaças biológicas, em comparação com os recursos existentes na Internet.
No entanto, alertaram que esta conclusão não é conclusiva e que os futuros LLMs poderão tornar-se mais capazes e perigosos. Salientaram também a necessidade de investigação contínua e de deliberação comunitária sobre este tema, bem como do desenvolvimento de métodos de avaliação melhorados e de diretrizes éticas para os riscos de segurança proporcionados pela IA.
Leia também:
Este post foi modificado pela última vez em 31 de janeiro de 2024 21:54
O Centro de Jornalismo Investigativo (CJI), organização sem fins lucrativos responsável pelo Mother Jones e…
A parceria da Microsoft com a OpenAI e o acordo de inteligência artificial (IA) do…
Os ministros do comércio e da indústria dos EUA, Japão e Coreia do Sul prometeram…
A tentativa da Nokia de comprar a fabricante americana de equipamentos de redes ópticas Infinera…
A disseminação de sistemas baseados em inteligência artificial (IA) oferece grandes oportunidades para as empresas…
O crescimento das empresas que estão estabelecendo Centros de Capacidade Global (GCCs) na Índia está…