Illm-a*: Ki, 1000 faktörlü yolun planlanmasını hızlandırıyor

Dolandırıcı Bildirim

Bu makale bu nedenle İngilizce olarak mevcuttur. Yayınlamadan önce teknik yardım ve editoryal revizyon ile çevrildi.

Çin'deki Ulusal Savunma Üniversitesi teknolojisinden araştırmacılar tarafından “büyük ölçekli ızgara haritalarında rotanın planlanması için 1000 × LLM artırıldı” ARXIV, büyük ızgara kartlar üzerindeki izci planlamasının verimliliğini önemli ölçüde artırmayı amaçlayan yeni bir algoritmaya sahiptir. Illm-a* yaklaşımı, bir vokal modelini optimize edilmiş bir algoritma ile birleştirir ve 1000 faktörünün ötesinde mevcut yöntemlere kıyasla araştırma sürelerini azaltmayı amaçlamaktadır. Otonom robotik, lojistik planlama ve yapay zekanın kontrolü gibi potansiyel uygulama alanları karmaşık simülasyonlardan veya video oyunlarından yararlanabilir.

Rotanın büyük ızgara bazlı ortamlarda planlanması, A* ve Dijkstra olarak geleneksel yol arama algoritmaları için önemli bir aritmetik zorluktur. Makalenin büyüklüğündeki artışla, zamanın karmaşıklığı ve arşivleme orantısız olarak artar, bu da robotik gibi sektörlerde gerçek zaman uygulamalarını veya karmaşık sistemlerin simülasyonu arttırır. Illm-a*ile araştırmacılar şimdi bu kısıtlamalarla karşı karşıya olan hibrit bir yaklaşım sunuyorlar.

Çalışma başlangıçta önceki avangard yaklaşım LLM-A*'nın zayıf yönlerini analiz ediyor. Bu, A*algoritması dahil olmak üzere bir yol noktası dizisi oluşturmak için büyük bir dil modeli (LLM) kullanır, bu nedenle daha kısa ve yerel yollar arar. Bu yaklaşım küresel araştırma alanını azaltsa da, araştırmacılar büyük kartlardaki performansını sınırlayan üç temel darboğaz belirlediler (n ≥ 200 olarak tanımlanır, burada n ızgara kenarının uzunluğudur):

  • İçin doğrusal listelerin kullanımı OPEN– VE CLOSED-Bu miktarı (prensip olarak mümkün ve zaten ziyaret edilen yol noktalarının listeleri) A*algoritmasında araştırma ve ekleme operasyonlarında yüksek zamansal karmaşıklığa yol açar.
  • Global rehberli listeler, kartın büyüklüğü ile güçlü bir şekilde büyür, bu da yüksek bir bellek tüketimine yol açar.
  • LLM'ler uzay yanılsamasına eğilimlidir ve gereksiz veya optimal yoldan sapabilen stokastik yol noktaları üretir, bu da sonraki araştırma sürecini verimsiz hale getirir.

Ekip tarafından sunulan Illm-A* (A* Yenilikçi A*) algoritması bu üç noktayı hedefli optimizasyonlarla karşılıyor:

  • . CLOSEDListenin yerini karma bazlı bir veri yapısı aldı. Bu, uygulamanın bir düğümün zaten büyüklük veya (s) ortalamasına veya (1) 'e kadar genişletilmiş olması üzerindeki karmaşıklığını azaltır.
  • Sezgisel değerler için gecikmiş bir tazeleme stratejisi OPEN-Cropt, listenin tüm alanı için yeni pahalı hesaplamalardan kaçınır.
  • Araştırmacılar iki aşamalı çarpışma tanıma kullanıyorlar. Her şeyden önce, eksen (AABB) tarafından hizalanan sınırlama kutularını kullanan bir detaylandırma testi potansiyel çarpışmaları kontrol eder. Sadece sınırlama kutuları örtüştüğünde kesin ama daha karmaşık bir çarpışma testidir.

IllM tarafından üretilen yol noktalarının kalitesini artırmak için, araştırmacılar dinamik bir öğrenme süreci uyguladılar: Sistem, birkaç genişletilebilir darbeye örnek bir veritabanı kullanıyor. LLM bir eğitim kartı için yol noktası oluşturulduktan ve algoritma bir yol planladıktan sonra, bu yol önceden tanımlanmış metrikler kullanılarak değerlendirilir. Bu kriterler, rotanın optimal uzunluğundan sapmayı ve saf bir çözüme kıyasla zaman ve bellek tüketimini içerir. Yalnızca planlanan rota kalite eşiği değerlerini karşılıyorsa, tork haritadan veritabanına dahil edilecek ve geçerli bir örnek olarak oluşturulan yol noktası olacaktır. Bu, ILM'nin stratejisini çeşitli ortamlara uyarlanacak yollar üretmek için uyarlamasına olanak tanır.

LLM kullanarak Waypoint Production için Hızlı Model

LLM kullanarak Waypoint Production için Hızlı Model

(Resim: Yan Pan ve Al)

Araştırmacıların ampirik bir incelemesi, çok sayıda yol noktasının, yolun kalitesini önemli ölçüde iyileştirmeden orantısız bir şekilde aritmetik giderleri artırdığını göstermiştir. Bu sonuçlara dayanarak, basit ve etkili bir seçim kuralı uygulanmıştır: LLM ikiden fazla yol noktası oluşturursa, sadece sonraki araştırma için başlangıç ​​noktasına daha yakın olan ilk iki yol noktası*. Bu, gerçekleştirilecek araştırma sayısını ve dolayısıyla toplam harcamayı en aza indirir.

Araştırmacılara göre, kartların farklı boyutları üzerindeki değerlendirme (n = 50 ila 450 arasında), Illm-a*'nın karşılaştırmalı yöntemlere (a*, opt-a*, llm-a*) önemli bir üstünlüğünü göstermiştir. Illm-a*, en kısa yolun arama süresinde LLM-A* ile karşılaştırıldığında 1000 faktörün ortalama bir ivmesi elde etmiştir. Aşırı durumlarda, ivme LLM-A*ile karşılaştırıldığında neredeyse 2350 faktördü. Bellek gereksinimi LLM-A*ile karşılaştırıldığında yüzde 58,6'ya kadar azaltılabilir. N = 450 Illm-A*3.62 MB olan bir kartta, algoritma optimize edildi (OPT-A*) sadece 28.67 MB işgal etti. Ek olarak, Illm-A* tarafından üretilen rotalar, optimal uzunluktan ortalama daha düşük bir sapma gösterdi (LLM-A* 'da yüzde 107,94'e karşı yüzde 104.39). Araştırma ekibi, rotanın uzunluğunun standart sapması önemli ölçüde daha düşüktü, bu da sonuçların daha fazla istikrarı ve öngörülebilirliğini gösteriyor.

Karmaşık ortamlarda yolu bulmak için hesaplama ve depolama ihtiyaçlarındaki bu muazzam azalma uygulanabilirse, bu geniş uygulamalar açar. Belirli senaryolar, lojistikteki otonom robotların dinamik navigasyonundan, video oyunlarının büyük dünyalarındaki karakterlerin akıllı kontrolüne, dijital ikizlerde hızlı simülasyonlara kadar uzanmaktadır.


(VZA)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir