[Paper 정리] LLM A*: Human in the loop LLM enabled A* search for Robotics (2023.12 arxiv, LLM + A*)
아래 그림은 환경 설정을 하는 방법을 보여줌. LLM의 역활은 사용자 prompt를 분석하고 A*에 필요한 정보를 추리는 것으로 보임.
아래 그림은 대화를 통해서 path planning을 수행하는 것을 보여주고 있음.
아래 그림 (a)는 A*의 결과이며, (b)는 LLM A*의 결과임. 그림 내에서 초록색은 search space를 의미하며, 빨간색은 최종 결정된 path를 의미함. 이 결과를 보면, LLM A*가 A*에 비해서 search space가 훨씬 적다는 것을 알 수 있음.
아래 그림은 (a) LLM A*, (b) LLM greedy, (c) Reinforcement Learning(RL) 기반 path planning 결과를 보여줌. LLM greedy의 경우, 너무 최적으로 가려고 하다가, 장애물을 고려하지 못해서 중복된 path들이 많이 보임. 하지만 search space는 가장 적은 편. RL 기반 path planning의 경우, search space도 매우 넓은 편이며 path planning 역시 상대적으로 효율성이 떨어지는 편임.
해당 논문은 LLM을 전체 시스템의 앞단에 위치시켜, 사용자와의 communication과 결과 정리를 맡겼을 때, path planning 알고리즘의 효율성이 높아질 수 있다는 것을 의미하는 논문으로 생각됨.
댓글 영역