Ao dividir um problema intratável em partes menores, uma técnica de deep learning identifica as áreas que podem reduzir o tráfego em um armazém.
Centenas de robôs ziguezagueiam pelo chão de um colossal armazém robótico, pegando itens e entregando-os a trabalhadores humanos para embalagem e envio. Tais armazéns estão se tornando cada vez mais parte da cadeia de suprimentos em muitas indústrias, desde o comércio eletrônico até a produção automotiva.
No entanto, fazer com que 800 robôs cheguem eficientemente aos seus destinos, evitando colisões, não é tarefa fácil. É um problema tão complexo que até mesmo os melhores algoritmos de busca de caminhos lutam para acompanhar o ritmo frenético do comércio eletrônico ou da fabricação.
Em certo sentido, esses robôs são como carros tentando navegar por um centro urbano lotado. Então, um grupo de pesquisadores do MIT que utiliza inteligência artificial (IA) para mitigar congestionamentos de tráfego aplicou ideias desse domínio para enfrentar esse problema.
Eles desenvolveram um modelo de deep learning que codifica informações importantes sobre o armazém, incluindo os robôs, os caminhos planejados, as tarefas e os obstáculos, e o utiliza para prever as melhores áreas do armazém para descongestionar e melhorar a eficiência geral.
Sua técnica divide os robôs do armazém em grupos, para que esses grupos menores de robôs possam ser descongestionados mais rapidamente com algoritmos tradicionais usados para coordenar robôs. No final, seu método descongestiona os robôs quase quatro vezes mais rápido do que um método de busca aleatória forte.
Além de otimizar as operações de armazém, essa abordagem de deep learning poderia ser usada em outras tarefas complexas de planejamento, como design de chips de computador ou roteamento de tubulações em edifícios grandes.
“Desenvolvemos uma nova arquitetura de rede neural que é realmente adequada para operações em tempo real na escala e complexidade desses armazéns. Ela pode codificar centenas de robôs em termos de suas trajetórias, origens, destinos e relacionamentos com outros robôs, e pode fazer isso de maneira eficiente que reutiliza a computação entre grupos de robôs,” diz Cathy Wu, a Professora Assistente de Desenvolvimento de Carreira Gilbert W. Winslow em Engenharia Civil e Ambiental (CEE), e membro do Laboratório de Sistemas de Informação e Decisão (LIDS) e do Instituto de Dados, Sistemas e Sociedade (IDSS).
Wu, autora sênior de um artigo sobre essa técnica, é acompanhada pelo autor principal Zhongxia Yan, um estudante de pós-graduação em engenharia elétrica e ciência da computação. O trabalho será apresentado na Conferência Internacional sobre Representações de Aprendizado.
Quando um pedido de cliente chega, um robô se desloca para uma área do armazém, pega a prateleira que contém o item solicitado e a entrega a um operador humano que seleciona e embala o item. Centenas de robôs fazem isso simultaneamente, e se os caminhos de dois robôs se conflitam ao atravessar o imenso armazém, eles podem colidir.
Algoritmos de busca tradicionais evitam colisões em potencial mantendo um robô em seu curso e replanejando uma trajetória para o outro. Mas com tantos robôs e colisões potenciais, o problema cresce rapidamente de forma exponencial.
“Como o armazém está operando online, os robôs são replanejados a cada 100 milissegundos. Isso significa que a cada segundo, um robô é replanejado 10 vezes. Portanto, essas operações precisam ser muito rápidas,” diz Wu.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:00
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…