Universidades australianas estão tendo problemas com o uso de IA por estudantes

Universidades australianas estão lutando para combater o aumento do uso de IA generativa para colas em avaliações. Em um documento enviado ao Senado do país, diretores das universidades narram que será “muito difícil, senão impossível, impedir que os alunos usem IA para trapacear nas avaliações”. As instituições acreditam que terão que mudar a forma como ensinam.

Publicado por
Uesley Durães

As universidades estão enfrentando uma série de desafios para detectar o uso de IA para trapaça. Os humanos não são bons em detectar conteúdo gerado por IA, e as ferramentas de detecção de IA não são confiáveis. 

De acordo com lideranças das universidades, alguns tutores tiveram que retornar para provas feitas com papel e caneta para combater as tentativas de cola com IA.  

No entanto, a solução parece estar longe de ser a ideal. A Monash Univesity, de Melbourne, explica que “evidências emergentes sugerem que os humanos não são confiáveis ​​na detecção de conteúdo gerado por IA”.

Além disso, autoridades no assunto narram que não podem simplesmente proibir o uso de IA, pois é uma tecnologia poderosa que pode ser usada para o bem ou para o mal. Proibir o uso dessas ferramentas seria como podar o potencial criativo dos acadêmicos.

Para lidar com o problema, as universidades estão explorando uma série de opções, incluindo:

  • Mudança na maneira como ensinam e avaliam os alunos.
  • Criação de novos métodos de avaliação que sejam resistentes à IA.
  • Desenvolver um melhor entendimento dos riscos e benefícios da IA.

Além dos desafios mencionados acima, as universidades também estão preocupadas com o potencial da IA para promover a preguiça e a falta de pensamento independente. Se os alunos puderem simplesmente usar IA para gerar conteúdo, eles não terão que aprender a pensar por si mesmos, narra o alerta da comunidade. Isso pode ter um impacto negativo na qualidade da educação que recebem.

De acordo com o que narrou a rede ABC australiana, a Universidade da Tecnologia de Queensland disse que está “consciente dos riscos potenciais” do uso de IA para trapaça e está trabalhando para desenvolver novas diretrizes para os alunos sobre o uso da tecnologia. A universidade disse que também está trabalhando para educar os alunos sobre os riscos do uso de IA para trapaça.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 11:56

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024