No fim de semana repercutiu no mundo todo um caso de um advogado que usou o ChatGPT para uma petição de processo. A grande polêmica é que, de forma equivocada, o chatbot citou casos inexistentes de outros processos.
Agora, o advogado poderá enfrentar fortes sanções após a ampla repercussão do caso, que foi publicado no The New York Times.
Em uma declaração apresentada na última quinta-feira, o advogado admitiu ter usado o ChatGPT para complementar sua pesquisa para o caso. Ele afirmou que não tinha conhecimento da possibilidade de que as informações fornecidas pelo chatbot pudessem ser falsas.
O caso envolve a Avianca e um passageiro que alega ter se machucado durante um voo para Nova York. A companhia aérea solicitou a um juiz federal que rejeitasse o caso, e a defesa do envolvido citou outros processos semelhantes como suporte para suas alegações. A questão é que três desses casos mencionados, “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”, nunca existiram.
Agora, no dia 8 de junho, vai acontecer uma reunião para discutir possíveis punições ao profissional. O advogado, por sua vez, admitiu que se arrependeu de ter usado o ChatGPT e prometeu ter mais crivo e observar a autenticidade dos conteúdos.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 10:28
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…