Inteligência Artificial

Neo4j anuncia recurso que aumenta o desempenho de consultas analíticas em até 100 vezes

A Neo4j, empresa líder em análise e banco de dados grafos, anunciou nesta quarta-feira (25) um novo recurso que aumenta o desempenho de consultas analíticas de dados em até 100 vezes. O recurso, chamado de Parallel Runtime, usa threads simultâneos para executar consultas de grafos analíticos em vários núcleos de CPU, isso pode auxiliar na evolução do desenvolvimento de plataformas de inteligência artificial.

Publicado por
Uesley Durães

O Parallel Runtime é baseado em uma técnica chamada paralelismo baseado em morsel, que divide as consultas em pedaços menores que podem ser executados em paralelo. Isso permite que o Neo4j processe consultas analíticas grandes e complexas muito mais rapidamente do que antes.

“O Parallel Runtime é um avanço significativo para a Neo4j”, disse Sudhir Hasbe, diretor de produtos da Neo4j. “Ele permite que nossos clientes obtenham insights mais rapidamente de seus dados, o que pode levar a melhores decisões de negócios.”

Para simplificar o entendimento, o Parallel Runtime da Neo4j pode ser usado em algumas situações como:

  • Uma empresa de varejo pode usar o Parallel Runtime para analisar dados de vendas e identificar tendências e padrões que podem ajudá-la a melhorar a experiência do cliente.
  • Um banco pode usar o Parallel Runtime para rastrear transações em tempo real e identificar atividades suspeitas.
  • Uma empresa de serviços financeiros pode usar o Parallel Runtime para criar um grafo de conhecimento de seus clientes e usar esse grafo para fornecer recomendações personalizadas.

Para a indústria de IA, o Parallel Runtime pode funcionar de várias maneiras. Um exemplo é o treinamento de modelos de aprendizado de máquina. O treinamento de modelos de aprendizado de máquina pode ser um processo muito lento, pois requer a execução de muitas iterações do modelo em um conjunto de dados. O Parallel Runtime pode ser usado para acelerar esse processo, executando o treinamento em paralelo em vários núcleos de CPU.

Outro exemplo é a inferência de modelos de aprendizado de máquina. A inferência de modelos de aprendizado de máquina é o processo de usar um modelo treinado para fazer previsões ou recomendações. A inferência de modelos de aprendizado de máquina também pode ser um processo lento, pois requer a execução de uma consulta no modelo. O Parallel Runtime pode ser usado para acelerar esse processo, executando a consulta em paralelo em vários núcleos de CPU.

O Parallel Runtime está disponível agora no Neo4j Graph Database e no Neo4j AuraDB.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:51

Uesley Durães

Posts recentes

Poesia de IA supera clássicos humanos em teste cego

Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…

18 de novembro de 2024

TikTok lança Symphony Creative Studio; veja

O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…

17 de novembro de 2024

Aplicativo de desktop do ChatGPT ganha integração direta com aplicativos

A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…

17 de novembro de 2024

OpenAI apresenta roteiro de IA para os EUA

A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…

14 de novembro de 2024

Agentes de pesquisa de IA projetam novas proteínas para combater a COVID-19

Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…

14 de novembro de 2024

O ‘Operator’ da OpenAI está chegando

A OpenAI está planejando lançar o 'Operator' em janeiro, uma nova ferramenta de inteligência artificial…

14 de novembro de 2024