Inteligência Artificial

Neo4j anuncia recurso que aumenta o desempenho de consultas analíticas em até 100 vezes

A Neo4j, empresa líder em análise e banco de dados grafos, anunciou nesta quarta-feira (25) um novo recurso que aumenta o desempenho de consultas analíticas de dados em até 100 vezes. O recurso, chamado de Parallel Runtime, usa threads simultâneos para executar consultas de grafos analíticos em vários núcleos de CPU, isso pode auxiliar na evolução do desenvolvimento de plataformas de inteligência artificial.

Publicado por
Uesley Durães

O Parallel Runtime é baseado em uma técnica chamada paralelismo baseado em morsel, que divide as consultas em pedaços menores que podem ser executados em paralelo. Isso permite que o Neo4j processe consultas analíticas grandes e complexas muito mais rapidamente do que antes.

“O Parallel Runtime é um avanço significativo para a Neo4j”, disse Sudhir Hasbe, diretor de produtos da Neo4j. “Ele permite que nossos clientes obtenham insights mais rapidamente de seus dados, o que pode levar a melhores decisões de negócios.”

Para simplificar o entendimento, o Parallel Runtime da Neo4j pode ser usado em algumas situações como:

  • Uma empresa de varejo pode usar o Parallel Runtime para analisar dados de vendas e identificar tendências e padrões que podem ajudá-la a melhorar a experiência do cliente.
  • Um banco pode usar o Parallel Runtime para rastrear transações em tempo real e identificar atividades suspeitas.
  • Uma empresa de serviços financeiros pode usar o Parallel Runtime para criar um grafo de conhecimento de seus clientes e usar esse grafo para fornecer recomendações personalizadas.

Para a indústria de IA, o Parallel Runtime pode funcionar de várias maneiras. Um exemplo é o treinamento de modelos de aprendizado de máquina. O treinamento de modelos de aprendizado de máquina pode ser um processo muito lento, pois requer a execução de muitas iterações do modelo em um conjunto de dados. O Parallel Runtime pode ser usado para acelerar esse processo, executando o treinamento em paralelo em vários núcleos de CPU.

Outro exemplo é a inferência de modelos de aprendizado de máquina. A inferência de modelos de aprendizado de máquina é o processo de usar um modelo treinado para fazer previsões ou recomendações. A inferência de modelos de aprendizado de máquina também pode ser um processo lento, pois requer a execução de uma consulta no modelo. O Parallel Runtime pode ser usado para acelerar esse processo, executando a consulta em paralelo em vários núcleos de CPU.

O Parallel Runtime está disponível agora no Neo4j Graph Database e no Neo4j AuraDB.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:51

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024