A inteligência artificial (IA) é uma das ferramentas mais incríveis já criadas pela humanidade. Mas também é uma das mais controversas. Alguns dos pesquisadores e desenvolvedores pioneiros de IA acreditam que, sem um gerenciamento adequado, existe a possibilidade de que ela possa ser a fonte da nossa própria extinção.
Há também muitos especialistas que pensam que a IA tem a capacidade de resolver alguns dos problemas mais intratáveis da humanidade, como as mudanças climáticas. Mas o que é IA? E qual é o estado atual dessa tecnologia?
O ano de 2023 foi um período no qual diversos projetos de inteligência artificial adentraram mais profundamente os mais diferentes setores da sociedade – saúde, educação, segurança, transporte, etc. -, com inúmeros projetos ainda sendo desenvolvidos e com esse tipo de tecnologia dando seus primeiros passos em direção à propostas mais complexas.
Nesse contexto, reunimos aqui 5 perguntas básicas, mas extremamente importantes para se acompanhar a velocidade de desenvolvimento da IA.
Não há um limite objetivo ou científico que define a IA.
As pessoas se uniram em torno de grandes modelos de linguagem e produtos de IA generativa (incluindo ChatGPT, Bard, etc.) como sendo “inteligentes”, mas tudo isso depende do ponto de vista. Dessa forma, qualquer coisa que consiga reunir e sintetizar informações, conceitos e idiomas com uma amplitude e velocidade além das capacidades de 99,9% dos seres humanos é bastante inteligente! Então, quando o ChatGPT escreve instantaneamente um soneto no estilo de Lionel Richie em urdu, ou o MetaConstellation da Palantir integra centenas de feeds e fluxos de dados diferentes para criar um painel operacional para soldados na Ucrânia, isso é IA.
Agora, algumas pessoas confundem esse tipo de inteligência com sentiência ou a capacidade de sentir. Mas não há evidências de que qualquer um dos modelos de IA tenha sentimentos. Alguns pesquisadores e empresas estão buscando a Inteligência Artificial Geral — um tipo de máquina superior em todos os aspectos ao cérebro humano, que pode governar, aprender e talvez até sentir por si só. Mas isso ainda está no campo teórico.
Não. As contribuições individuais têm um impacto limitado, já que os modelos de IA são extensos e a base de usuários é grande. Além disso, alguns modelos estão sendo treinados com dados e estímulos sintéticos, o que reduz ainda mais a significância das contribuições individuais para o conhecimento geral e base de treinamento da IA.
Você não pode, pelo menos não agora. Quando você solicita a um LLM (grande modelo de linguagem), bilhões de neurônios de computador são ativados para sintetizar informações e criar uma resposta original. Como esse processo gera uma resposta original toda vez, é quase impossível recriar e provar que uma resposta foi gerada por inteligência artificial. Com texto, é extremamente fácil copiar e colar algo de um LLM para o seu próprio formato ou documento. É por isso que a chegada do ChatGPT foi tão desestabilizadora para escolas e professores.
Imagens, áudio e vídeo são um pouco mais complicados, e boas técnicas forenses frequentemente (por enquanto) podem identificar a origem sintética ou de IA. No entanto, é um trabalho demorado. Muitas empresas estão trabalhando na criação de marcas d’água digitais para seu conteúdo, em parte porque reguladores e governos podem exigir tais identificadores em um futuro próximo (é uma das principais prioridades do presidente Biden em sua recente ordem executiva). Mas essa tecnologia ainda não está aperfeiçoada.
Seu contrato de usuário com um LLM não é muito diferente dos que você clicou sem ler com Google, Meta ou qualquer outra grande empresa de busca ou mídia social. Na maioria dos casos, você cede seus dados — com a IA, você compartilha um histórico de seus estímulos apresentados — em troca do direito de usar o produto. Você tem uma expectativa razoável de que seu uso será anonimizado, mas – como vimos com outras empresas digitais – essa expectativa é tão boa quanto a equipe de segurança da informação da empresa de IA.
Muito do que está acontecendo com a IA no mundo corporativo não tecnológico está ocorrendo discretamente nos bastidores. Ainda há muito desconforto com a IA, e as empresas estabelecidas geralmente relutam em anunciar suas iniciativas por medo de 1) assustar os clientes, 2) alienar os funcionários cujos empregos podem estar em risco e 3) alertar os concorrentes sobre seus planos. Dito isso, vimos muitos exemplos de empresas que avançaram rápido demais e fracassaram de maneiras espetaculares. E veremos muitos mais.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 23:06
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…