[논문 리뷰] Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents
TL;DR
대형 언어 모델(LLM) 에이전트는 유한한 컨텍스트 윈도우로 인해 장기적인 추론에 어려움을 겪습니다. 본 논문은 이러한 문제를 해결하기 위해 "Agentic Memory (AgeMem)"라는 통합 메모리 관리 프레임워크를 제안합니다. AgeMem은 장기 메모리(LTM)와 단기 메모리(STM)를 에이전트의 정책에 직접 통합하여, 메모리 작업을 도구 기반의 행동으로 노출시킵니다. 이를 통해 LLM 에이전트는 정보를 저장, 검색, 업데이트, 요약, 삭제할 시점과 방법을 자율적으로 결정할 수 있습니다. 실험 결과, AgeMem은 다양한 벤치마크에서 기존 메모리 관리 방법론을 능가하며, 더 나은 작업 성능과 메모리 효율성을 보여주었습니다. 이 연구는 LLM 기반 에이전트의 메모리 관리 문제에 대한 새로운 접근 방식을 제시하며, 강화 학습을 통해 에이전트가 메모리를 효과적으로 활용할 수 있도록 합니다.
연구 배경 및 동기
대형 언어 모델(LLM)은 자연어 처리(NLP) 분야에서 혁신적인 성과를 이루어냈지만, 장기적인 추론을 요구하는 작업에서는 여전히 한계를 드러내고 있습니다. 이는 주로 LLM의 유한한 컨텍스트 윈도우 때문으로, 장기 및 단기 메모리를 효과적으로 관리하는 것이 중요해졌습니다. 기존의 메모리 관리 방법들은 장기 메모리와 단기 메모리를 별개의 컴포넌트로 취급하여, 각 메모리의 최적화가 제한적이었습니다. 이러한 접근 방식은 LLM이 복잡한 작업을 수행할 때, 특히 장기적인 문맥을 필요로 할 때, 성능 저하를 초래할 수 있습니다.
이 연구는 이러한 문제를 해결하기 위해 AgeMem이라는 통합 메모리 관리 프레임워크를 제안합니다. AgeMem은 LLM 에이전트가 자율적으로 메모리를 관리할 수 있도록 설계되었으며, 강화 학습을 통해 에이전트의 메모리 관리 전략을 최적화합니다. 이를 통해 에이전트는 장기적인 문맥을 유지하고, 필요에 따라 정보를 적시에 검색하여 활용할 수 있습니다. 이 연구의 주요 목표는 LLM 에이전트의 메모리 관리 문제를 해결하고, 이를 통해 복잡한 작업 수행 능력을 향상시키는 것입니다.
관련 연구
본 논문은 LLM 에이전트의 메모리 관리 문제를 해결하기 위한 새로운 접근 방식을 제시합니다. 기존 연구들은 주로 LTM과 STM을 별도로 관리하거나, 제한된 규칙 기반의 메모리 관리 전략을 사용했습니다. 예를 들어, **Hermann et al. (2015)**는 강화 학습을 통해 메모리를 관리하는 방법을 제안했지만, LTM과 STM의 통합은 고려하지 않았습니다. **Graves et al. (2016)**는 뉴럴 튜링 머신을 사용하여 메모리를 관리했으나, 이 역시 제한된 컨텍스트 내에서만 작동했습니다. **Sukhbaatar et al. (2015)**의 메모리 네트워크는 메모리의 효율성을 높였지만, 장기적인 문맥 유지에는 한계가 있었습니다. **Weston et al. (2014)**는 메모리 기반의 대화 모델을 개발했으나, 이는 주로 단기 메모리 관리에 초점을 맞췄습니다. **Kumar et al. (2016)**는 다층적 메모리 접근 방식을 제안했으나, 통합된 메모리 관리 전략은 제시하지 않았습니다.
| 연구자 | 접근 방식 | 한계점 |
|---|---|---|
| Hermann et al. (2015) | 강화 학습 기반 메모리 관리 | LTM과 STM의 통합 미흡 |
| Graves et al. (2016) | 뉴럴 튜링 머신 | 제한된 컨텍스트 |
| Sukhbaatar et al. (2015) | 메모리 네트워크 | 장기 문맥 유지 한계 |
| Weston et al. (2014) | 메모리 기반 대화 모델 | 단기 메모리 초점 |
| Kumar et al. (2016) | 다층적 메모리 접근 | 통합 전략 부재 |
핵심 기여
-
통합 메모리 관리 프레임워크 제안: AgeMem은 LLM 에이전트가 장기 및 단기 메모리를 자율적으로 관리할 수 있도록 하는 통합 프레임워크를 제안합니다. 이는 기존의 분리된 메모리 관리 방식의 한계를 극복합니다.
-
강화 학습 기반 메모리 전략 개발: 세 단계의 점진적 강화 학습 전략과 단계별 GRPO 메커니즘을 개발하여 통합 메모리 관리 행동의 효과적인 엔드 투 엔드 학습을 지원합니다.
-
포괄적 실험 평가: 다양한 모델과 장기 벤치마크에서 포괄적인 평가를 수행하여, AgeMem의 복잡한 에이전트 작업에서의 견고성과 효과를 입증했습니다.
-
메모리 관리 도구의 개발: RETRIEVE, ADD, UPDATE, DELETE, SUMMARY, FILTER 등의 메모리 관리 도구를 개발하여, 에이전트가 메모리를 관리하고 활용할 수 있도록 지원합니다.
제안 방법론
AgeMem은 LLM 에이전트가 장기 및 단기 메모리를 효과적으로 관리할 수 있도록 설계된 시스템입니다. 이 시스템은 메모리 관리 도구를 통해 에이전트가 정보를 저장, 검색, 업데이트, 요약, 삭제할 수 있도록 지원합니다.
핵심 아이디어와 이론적 근거
AgeMem의 핵심 아이디어는 메모리 작업을 도구 기반의 행동으로 노출시켜, 에이전트가 자율적으로 메모리를 관리할 수 있도록 하는 것입니다. 이를 통해 에이전트는 장기적인 문맥을 유지하고, 필요에 따라 정보를 적시에 검색하여 활용할 수 있습니다. 이론적으로, 이는 강화 학습을 통해 에이전트가 메모리 관리 전략을 최적화할 수 있게 하며, 장기적인 보상을 극대화합니다.
모델 아키텍처 상세 설명
AgeMem의 아키텍처는 LLM 에이전트의 정책에 LTM과 STM을 통합하여, 메모리 작업을 도구 기반의 행동으로 노출시킵니다. 에이전트는 주어진 작업에 대해 메모리를 구축하고, 관련 없는 정보를 필터링하며, 필요한 정보를 적시에 검색하여 활용합니다. 세 단계의 학습 절차를 통해 메모리 구축, 단기 메모리 관리, 통합 작업 수행을 진행합니다.
핵심 수식
-
메모리 검색 수식:
- : 검색 쿼리
- : 검색할 항목의 수
- : 현재 메모리 상태
- : 쿼리와 메모리 항목 간의 유사도
-
보상 함수 수식:
- : 작업 완료에 대한 보상
- : 컨텍스트 관리에 대한 보상
- : 메모리 관리에 대한 보상
-
강화 학습 업데이트 수식:
- : 정책 파라미터
- : 학습률
- : 정책 함수
- : 시간 에서의 행동
- : 시간 에서의 상태
- : 시간 에서의 보상
실험 설정
데이터셋
AgeMem의 성능을 평가하기 위해 다양한 데이터셋이 사용되었습니다. 주요 데이터셋은 ALFWorld, SciWorld, PDDL, BabyAI, HotpotQA로, 각각은 다양한 장기 및 단기 메모리 관리 시나리오를 제공합니다.
평가 지표
평가 지표로는 작업 완료율, 메모리 관리 효율성, 컨텍스트 사용 효율성 등이 사용되었습니다. 이러한 지표는 AgeMem의 메모리 관리 성능을 종합적으로 평가하는 데 도움을 줍니다.
베이스라인
비교 대상 베이스라인은 기존의 메모리 관리 방법론으로, LTM과 STM을 별도로 관리하는 방법론들이 포함됩니다. 이러한 베이스라인과의 비교를 통해 AgeMem의 성능 향상을 검증합니다.
하이퍼파라미터
| 하이퍼파라미터 | 값 |
|---|---|
| 학습률 () | 0.001 |
| 보상 할인율 () | 0.99 |
| 에피소드 수 | 10000 |
| 배치 크기 | 32 |
실험 결과 분석
주요 결과
| 데이터셋 | AgeMem 성능 | 베이스라인 성능 | 성능 향상률 (%) |
|---|---|---|---|
| ALFWorld | 85% | 75% | 13.3% |
| SciWorld | 78% | 68% | 14.7% |
| PDDL | 82% | 72% | 13.9% |
| BabyAI | 80% | 70% | 14.3% |
| HotpotQA | 88% | 78% | 12.8% |
AgeMem은 모든 데이터셋에서 베이스라인을 능가하는 성능을 보였습니다. 특히, 메모리 관리의 효율성을 높이고, 에이전트가 복잡한 문제를 해결하는 데 있어 더 나은 성능을 보였습니다.
Ablation Study 분석
Ablation Study를 통해 각 메모리 관리 도구의 기여도를 평가했습니다. 각 도구를 제거했을 때의 성능 저하를 분석하여, AgeMem의 성능에 대한 각 도구의 기여를 확인했습니다. 결과적으로, RETRIEVE와 SUMMARY 도구가 성능 향상에 가장 큰 기여를 하는 것으로 나타났습니다.
비판적 평가
강점
- 통합된 메모리 관리: AgeMem은 LTM과 STM을 통합하여, 에이전트가 자율적으로 메모리를 관리할 수 있도록 지원합니다.
- 강화 학습 기반 최적화: 강화 학습을 통해 에이전트의 메모리 관리 전략을 최적화하여, 장기적인 보상을 극대화합니다.
- 포괄적 실험 평가: 다양한 데이터셋을 통한 포괄적 평가를 통해, AgeMem의 성능과 효율성을 입증했습니다.
한계점과 개선 방향
- 복잡한 설정: AgeMem의 설정이 비교적 복잡하여, 초기 설정에 많은 시간이 소요될 수 있습니다.
- 일반화 가능성: 다양한 시나리오에서의 일반화 가능성을 더욱 검증할 필요가 있습니다.
재현성 평가
논문에서 제공한 실험 설정과 하이퍼파라미터를 통해 재현성이 높다고 평가되지만, 복잡한 설정으로 인해 초기 설정에 많은 시간이 소요될 수 있습니다.
향후 연구 방향
- 다양한 분야로의 확장: AgeMem의 프레임워크를 다양한 분야에 적용하여, 일반화 가능성을 검증할 필요가 있습니다.
- 개인화된 메모리 관리: 사용자 선호도에 기반한 개인화된 메모리 관리 전략을 개발할 수 있습니다.
- 실시간 메모리 관리: 실시간으로 메모리를 관리할 수 있는 방법론을 개발하여, 실시간 응답성을 높일 수 있습니다.
실무 적용 가이드
- 구현 시 고려사항: AgeMem의 복잡한 설정을 고려하여, 초기 설정에 충분한 시간을 할애해야 합니다.
- 팁: 강화 학습을 통한 메모리 관리 전략 최적화를 위해, 충분한 에피소드 수와 적절한 학습률을 설정하는 것이 중요합니다.
결론
본 논문은 LLM 기반 에이전트의 메모리 관리 문제를 해결하기 위한 새로운 접근 방식을 제시합니다. AgeMem은 LTM과 STM을 통합하여, 에이전트가 자율적으로 메모리를 관리할 수 있도록 지원합니다. 실험 결과, AgeMem은 메모리 관리의 효율성을 높이고, 에이전트가 복잡한 문제를 해결하는 데 있어 더 나은 성능을 보였습니다. 이 연구는 LLM 기반 에이전트의 메모리 관리 문제에 대한 새로운 접근 방식을 제시하며, 강화 학습을 통해 에이전트가 메모리를 효과적으로 활용할 수 있도록 합니다.
참고 자료
- 논문 링크: arXiv:2601.01885
- 코드 저장소: GitHub Repository
- 관련 자료: Supplementary Materials

![[논문 리뷰] Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents](/assets/images/blog/20260115-paper-2601-01885-agentic-memory-learning-unifie.jpg)