No fim de semana repercutiu no mundo todo um caso de um advogado que usou o ChatGPT para uma petição de processo. A grande polêmica é que, de forma equivocada, o chatbot citou casos inexistentes de outros processos.
Agora, o advogado poderá enfrentar fortes sanções após a ampla repercussão do caso, que foi publicado no The New York Times.
Em uma declaração apresentada na última quinta-feira, o advogado admitiu ter usado o ChatGPT para complementar sua pesquisa para o caso. Ele afirmou que não tinha conhecimento da possibilidade de que as informações fornecidas pelo chatbot pudessem ser falsas.
O caso envolve a Avianca e um passageiro que alega ter se machucado durante um voo para Nova York. A companhia aérea solicitou a um juiz federal que rejeitasse o caso, e a defesa do envolvido citou outros processos semelhantes como suporte para suas alegações. A questão é que três desses casos mencionados, “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”, nunca existiram.
Agora, no dia 8 de junho, vai acontecer uma reunião para discutir possíveis punições ao profissional. O advogado, por sua vez, admitiu que se arrependeu de ter usado o ChatGPT e prometeu ter mais crivo e observar a autenticidade dos conteúdos.
Veja também:
Este post foi modificado pela última vez em 29 de maio de 2023 10:28
O Google anunciou uma série de novas integrações de inteligência artificial (IA) para smartphones Android…
O governo alemão está apoiando empresas no uso de inteligência artificial (IA) no campo da…
O Banco Central Europeu (BCE) soa o alarme sobre a necessidade de monitorar e regular…
O ChatGPT, chatbot da OpenAI, agora permite que você destaque partes de suas respostas para…
O Google I/O acabou de terminar — e foi repleto de anúncios de inteligência artificial…
O Poly.AI é uma plataforma conversacional que utiliza inteligência artificial (IA) para auxiliar empresas na…