Hinton ganhou destaque em maio quando anunciou que estava deixando o Google após uma década de trabalho para falar mais livremente sobre os perigos da IA, logo após o lançamento do ChatGPT, que capturou a imaginação do mundo.
PUBLICIDADE
O respeitado cientista de IA, sediado na Universidade de Toronto, falou para uma plateia lotada na conferência tecnológica Collision, na cidade canadense.
A conferência reuniu mais de 30.000 fundadores de startups, investidores e profissionais do setor de tecnologia, a maioria procurando aprender como aproveitar a onda da IA e não ouvir uma lição sobre seus perigos ou um apelo para interferência governamental.
“Antes que a IA seja mais inteligente do que nós, acho que as pessoas que a desenvolvem deveriam ser incentivadas a dedicar muito esforço para entender como ela pode tentar tomar o controle”, disse Hinton.
PUBLICIDADE
“No momento, há 99 pessoas muito inteligentes tentando melhorar a IA e uma pessoa muito inteligente tentando descobrir como impedi-la de assumir o controle, e talvez seja melhor termos mais equilibro”, afirmou.
Sérios riscos
Hinton alertou que os riscos da IA devem ser levados a sério.
“Acho importante que as pessoas entendam que isso não é ficção científica, isso não é apenas alarmismo”, insistiu. “É um risco real que devemos pensar e precisamos descobrir antecipadamente como lidar com ele.”
PUBLICIDADE
Hinton também expressou preocupação de que a IA aprofundaria a desigualdade, com os enormes ganhos de produtividade resultantes de sua implementação beneficiando os ricos e não os trabalhadores.
“A riqueza não vai para as pessoas que fazem o trabalho, vai para enriquecer os ricos e não os mais pobres, e isso é uma sociedade muito ruim”, acrescentou.
Ele também apontou o perigo das “fake news” criadas por bots semelhantes ao ChatGPT e disse esperar que o conteúdo gerado por IA possa ser marcado de forma semelhante às marcas d’água feitas pelos bancos centrais nas cédulas de dinheiro.
PUBLICIDADE
“É muito importante tentar, por exemplo, marcar tudo o que é falso como falso. Se isso é possível tecnicamente, eu não sei”, concluiu.