[논문 리뷰] GLM-5: Vibe Coding을 넘어 Agentic Engineering으로
TL;DR
GLM-5는 Zhipu AI와 칭화대학교가 개발한 차세대 파운데이션 모델로, 개발자의 직관에 의존하는 'Vibe Coding'을 넘어, 복잡한 작업을 자율적으로 수행하는 '에이전틱 엔지니어링(Agentic Engineering)'으로의 도약을 목표로 합니다. 최대 1M 토큰의 컨텍스트 길이를 지원하며, 이를 효율적으로 처리하기 위해 **DSA(DeepSeek Sparse Attention)**를 도입하여 긴 컨텍스트 처리 비용을 획기적으로 절감했습니다. 또한, 비동기식 강화학습(Asynchronous RL) 인프라를 통해 모델의 자율성과 학습 효율을 극대화하여, 실제 소프트웨어 개발 과제에서 최고 수준의 성능을 달성했음을 입증했습니다.
연구 배경 및 동기
대규모 언어 모델(LLM)은 코드 생성 분야에 혁신을 가져왔지만, 대부분의 모델은 단편적인 코드 스니펫 생성, 즉 'Vibe Coding'에 머물러 있었습니다. 이는 개발자가 원하는 기능의 "느낌(Vibe)"을 프롬프트로 전달하면 모델이 그럴듯한 코드를 생성해주는 방식입니다. 하지만 실제 소프트웨어 개발은 버그 수정, 기능 추가, 리팩토링 등 여러 단계에 걸친 복잡한 추론과 계획을 요구합니다.
이러한 한계를 극복하기 위해 **에이전틱 엔지니어링(Agentic Engineering)**이라는 새로운 패러다임이 등장했습니다. 이는 AI 에이전트가 복잡한 목표를 스스로 분석하고, 계획을 수립하며, 도구를 사용하고, 결과를 검증하며 자율적으로 작업을 완수하도록 설계하는 것을 의미합니다. GLM-5는 이러한 에이전틱 패러다임을 구현하기 위해 개발되었습니다. 특히, 1M 토큰에 달하는 방대한 컨텍스트를 효율적으로 처리하는 능력은 전체 코드베이스를 이해하고 복잡한 작업을 수행하는 데 필수적이며, GLM-5는 DSA 아키텍처를 통해 이를 실현했습니다.
관련 연구
LLM의 발전은 코드 생성 능력의 비약적인 향상을 이끌었습니다. 초기 모델부터 최신 모델까지 그 발전 과정과 GLM-5의 차별점은 다음과 같습니다.
| 연구/모델 | 주요 접근 방식 | GLM-5와의 차별점 |
|---|---|---|
| GPT-3/Codex | 대규모 텍스트/코드 데이터로 사전학습 | 주로 단편적인 코드 생성에 강점, 복잡한 다단계 작업 수행 능력은 제한적 |
| Code Llama | 코드에 특화된 데이터로 지속 학습 | 특정 프로그래밍 언어에 대한 이해도 높음. 에이전트로서의 자율적 계획 능력은 주된 목표가 아님 |
| GPT-4/Claude 3 | 멀티모달, 대규모 컨텍스트, 향상된 추론 능력 | 강력한 범용 능력을 갖추었으나, GLM-5는 에이전트 학습을 위한 비동기식 RL 인프라와 DSA 같은 특화된 아키텍처를 통해 소프트웨어 엔지니어링 작업에 더욱 최적화 |
| GLM-5 | 에이전틱 엔지니어링, DSA, 비동기식 RL | 복잡한 소프트웨어 개발 작업을 자율적으로 해결하는 '에이전트'로서의 능력에 집중. 긴 컨텍스트 처리 효율성과 에이전트 학습 속도를 극대화 |
핵심 기여
-
DSA(DeepSeek Sparse Attention) 아키텍처 도입: 표준 어텐션의 복잡도를 개선한 희소 어텐션(Sparse Attention)을 도입했습니다. 이를 통해 1M 토큰이라는 초장문 컨텍스트를 효율적으로 처리하면서도 모델 성능을 유지하여, 전체 코드베이스를 이해하는 능력을 확보했습니다.
-
비동기식 강화학습 인프라 구축: 모델의 추론(응답 생성)과 훈련(가중치 업데이트)을 분리하여 GPU 유휴 시간을 최소화했습니다. 이를 통해 에이전트의 탐색 및 학습 속도를 크게 높여, 복잡한 문제 해결 능력을 효율적으로 강화했습니다.
-
에이전틱 엔지니어링의 실현: 단순 코드 생성을 넘어, 복잡한 소프트웨어 개발 과제(예: GitHub 이슈 해결)를 자율적으로 계획하고, 코드를 수정하며, 테스트하는 고도화된 문제 해결 능력을 입증했습니다.
-
주요 벤치마크에서 SOTA 달성: SWE-bench, LiveCodeBench 등 실제 코딩 능력을 평가하는 벤치마크에서 기존 최고 성능 모델들을 능가하는 전례 없는 성과를 기록했습니다.
제안 방법론
GLM-5의 핵심 기술은 DSA 아키텍처와 비동기식 강화학습 인프라입니다.
DSA (DeepSeek Sparse Attention) 아키텍처
기존의 트랜스포머 모델이 사용하는 밀집 어텐션(Dense Attention)은 시퀀스 길이()가 길어질수록 연산량이 로 기하급수적으로 증가하여 긴 컨텍스트 처리에 비효율적입니다. DSA는 이를 해결하기 위한 희소 어텐션의 한 종류입니다.
작동 방식은 마치 우리가 두꺼운 책에서 필요한 정보를 찾을 때, 모든 페이지를 다 읽는 대신 '색인(Index)'을 활용하는 것과 유사합니다. DSA는 추가적인 **인덱서(Indexer)**를 사용하여, 현재 쿼리(Query) 토큰과 가장 관련성이 높은 상위 K개의 키-값(Key-Value) 쌍을 빠르게 찾아냅니다. 그 후, 전체가 아닌 이 핵심적인 하위 집합에 대해서만 어텐션 계산을 수행합니다. 이를 통해 연산 복잡도를 또는 수준으로 낮추면서도 중요한 정보를 놓치지 않아 모델 성능을 유지합니다.
비동기식 강화학습
에이전트가 복잡한 작업을 학습하려면 수많은 시행착오, 즉 궤적(trajectory) 탐색이 필요합니다. 기존의 동기식 방식에서는 모델이 행동을 생성하는 동안 GPU가 대기해야 하므로 비효율이 발생합니다.
GLM-5는 이를 해결하기 위해 **추론 워커(Inference Worker)**와 **훈련 워커(Training Worker)**를 분리했습니다.
- 추론 워커: 여러 GPU에서 동시에 에이전트의 행동 궤적을 생성하고 경험 데이터를 버퍼에 저장합니다.
- 훈련 워커: 버퍼에 쌓인 데이터를 가져와 모델의 가중치를 업데이트합니다.
이러한 비동기적 구조 덕분에 추론과 훈련이 병렬로 진행되어 GPU 활용률이 95%에 달했으며, 대규모 에이전트 궤적 탐색을 가속화하여 후처리 훈련(Post-training)의 속도와 품질을 크게 향상시켰습니다.
핵심 최적화 수식
GLM-5는 PPO(Proximal Policy Optimization) 알고리즘을 기반으로 강화학습을 수행합니다. 핵심 손실 함수는 다음과 같습니다.
- : 새로운 정책()과 이전 정책()의 확률 비율로, 정책 업데이트가 얼마나 크게 변했는지를 나타냅니다.
- : 시간 에서의 어드밴티지(Advantage) 추정치로, 특정 행동이 평균보다 얼마나 더 좋았는지를 나타냅니다.
- : 값이 범위를 벗어나지 않도록 잘라내어, 정책이 급격하게 변하는 것을 막아 학습 안정성을 높입니다.
- : GLM-5에서 추가한 연산자로, 값이 임계값 를 초과하면 해당 샘플의 가중치를 0으로 만듭니다. 이는 학습 분포에서 너무 벗어난(off-policy) 샘플이 학습을 불안정하게 만드는 것을 방지하는 안전장치 역할을 합니다.
실험 설정
GLM-5의 성능은 범용 언어 능력, 코드 생성, 수학 추론, 에이전트 능력 등 다방면에 걸쳐 평가되었습니다.
데이터셋 및 평가 지표
- 범용 능력: MMLU (영어), C-Eval (중국어)
- 코드 생성: EvalPlus, LiveCodeBench
- 수학 추론: GSM8K, MATH
- 에이전트 능력: SWE-bench (실제 GitHub 이슈 해결), BrowseComp (웹 브라우징), Terminal-Bench (터미널 조작), CyberGym (사이버 보안)
하이퍼파라미터 설정
| 하이퍼파라미터 | 값 | 비고 |
|---|---|---|
| 학습률 (Learning Rate) | 1.0e-4 | AdamW 옵티마이저 사용 |
| 배치 크기 (Batch Size) | 128 | |
| 최대 시퀀스 길이 | 1M 토큰 | DSA를 통해 효율적인 처리 가능 |
| 온도 (Temperature) | 0.7 | 생성의 다양성을 조절 |
실험 결과 분석
GLM-5는 특히 에이전트로서의 코드 생성 및 실제 문제 해결 능력에서 압도적인 성능을 보였습니다.
주요 결과
| 벤치마크 | GLM-5 성능 | SOTA 모델 (GPT-4o 등) 성능 | 비교 |
|---|---|---|---|
| MMLU | 85.0 | ~88.7 | 최상위권에 근접한 강력한 범용 언어 능력 |
| C-Eval | 88.0 | ~90.1 | 중국어에서도 뛰어난 성능 |
| EvalPlus | 87.0 | 82.0 | 코드 생성 능력에서 SOTA를 큰 폭으로 경신 |
| SWE-bench | 21.7 | 13.5 | 실제 GitHub 이슈 해결 능력에서 압도적인 성능 |
| GSM8K | 68.8 | ~97.0 | 수학적 추론 능력은 상대적으로 약점 |
| MATH | 56.4 | ~76.0 | 복잡한 수학 문제 해결에서 개선의 여지 확인 |
결과에서 보듯이, GLM-5는 코드 생성 및 실제 소프트웨어 엔지니어링 작업(EvalPlus, SWE-bench)에서 기존 모델들을 크게 능가했습니다. 이는 에이전틱 엔지니어링을 목표로 한 설계와 학습 방식이 성공적이었음을 보여줍니다. 반면, 순수 수학 추론 능력(GSM8K, MATH)에서는 약점을 보였는데, 이는 사전학습 데이터의 구성이나 후처리 훈련의 초점이 다르기 때문으로 분석됩니다.
Ablation Study
GLM-5의 핵심 요소들의 기여도를 분석하기 위해 Ablation Study를 수행했습니다. DSA 아키텍처를 제거했을 때, 긴 컨텍스트 처리 시 메모리 사용량이 5배 이상 증가하고 처리 속도가 급격히 저하되었습니다. 또한, 비동기식 강화학습을 동기식으로 변경하자 GPU 활용률이 40% 감소하고 에이전트 벤치마크 점수 수렴 속도가 현저히 느려졌습니다. 이를 통해 두 핵심 기술이 모델의 성능과 효율에 결정적인 역할을 했음을 확인했습니다.
비판적 평가
강점
- 혁신적인 아키텍처(DSA): 긴 컨텍스트 처리의 실질적인 병목 현상을 해결하여, 대규모 코드베이스 전체를 이해하고 수정하는 능력의 기반을 마련했습니다.
- 고효율 학습 인프라: 비동기식 강화학습을 통해 에이전트 모델의 훈련 비용과 시간을 크게 단축하여, 더 복잡하고 어려운 작업을 학습시킬 수 있는 가능성을 열었습니다.
- 검증된 에이전트 성능: SWE-bench와 같은 현실적인 벤치마크에서 SOTA를 달성함으로써, 연구실 수준을 넘어 실제 소프트웨어 개발 현장에 적용될 수 있는 잠재력을 입증했습니다.
한계점
- 수학적 추론 능력의 한계: 코드와 논리만큼 정교한 수학적 추론 능력은 아직 부족하여, 과학 계산이나 데이터 분석과 같이 수학이 중심이 되는 작업에서는 성능이 저하될 수 있습니다.
- 다단계 작업에서의 오류 전파: 에이전트가 여러 단계를 거쳐 작업을 수행할 때, 초기 단계의 작은 실수가 후속 단계에 연쇄적으로 영향을 미쳐 최종적으로 실패로 이어지는 '오류 전파(Error Propagation)' 문제가 여전히 존재합니다.
재현성 평가
논문에서 제안한 DSA 아키텍처와 비동기식 RL 프레임워크에 대한 설명이 상세하여 개념적으로 재현이 가능합니다. 모델 가중치와 코드가 공개될 경우, 연구 커뮤니티에서 결과를 검증하고 추가적인 발전을 이룰 수 있을 것으로 기대됩니다. 다만, 대규모 분산 학습 환경과 같은 인프라 의존적인 요소는 재현에 장벽이 될 수 있습니다.
향후 연구 방향
- 추론 능력 강화: 코드 생성 능력과 수학/논리 추론 능력을 동시에 향상시키기 위해, 다양한 종류의 데이터를 혼합한 사전학습 및 미세조정 전략에 대한 연구가 필요합니다.
- 오류 수정 및 회복 메커니즘: 다단계 작업에서 발생하는 오류를 에이전트가 스스로 감지하고 수정하는 능동적인 회복(self-correction) 메커니즘을 도입하여 안정성을 높이는 연구가 필요합니다.
- 인간-에이전트 협업: 완전 자율적인 에이전트를 넘어, 개발자와 긴밀하게 상호작용하며 작업을 수행하는 협업 프레임워크를 개발하여 생산성을 극대화하는 방향으로의 연구가 기대됩니다.
실무 적용 가이드
GLM-5는 다음과 같은 실무 환경에 효과적으로 적용될 수 있습니다.
- 적용 분야: 레거시 코드 리팩토링, 신규 기능 프로토타이핑, GitHub 저장소의 버그 자동 수정, 코드 리뷰 자동화 등 복잡하고 전체 코드베이스의 이해가 필요한 작업에 가장 적합합니다.
- 고려사항: 모델의 에이전트 능력을 최대한 활용하기 위해서는 명확한 목표 설정, 작업 완료 기준, 그리고 사용할 수 있는 도구(컴파일러, 테스트 프레임워크 등)를 정의하는 정교한 프롬프트 엔지니어링이 필수적입니다. 수학적 정확성이 중요한 작업에는 다른 전문 도구와 연계하여 사용하는 하이브리드 접근법이 권장됩니다.
결론
GLM-5는 단순한 코드 생성기를 넘어, 복잡한 소프트웨어 엔지니어링 작업을 자율적으로 수행하는 'AI 에이전트'의 가능성을 현실로 만든 중요한 이정표입니다. DSA 아키텍처와 비동기식 강화학습이라는 혁신적인 기술을 통해 긴 컨텍스트 처리의 효율성과 에이전트 학습 속도를 극대화했으며, 실제 개발 환경을 모사한 벤치마크에서 그 능력을 입증했습니다. 비록 수학적 추론 등 일부 한계는 존재하지만, GLM-5는 '에이전틱 엔지니어링' 시대의 본격적인 시작을 알리는 모델이라 할 수 있습니다.

![[논문 리뷰] GLM-5: from Vibe Coding to Agentic Engineering](/assets/images/blog/20260220-paper-2602-15763-glm-5-from-vibe-coding-to-agen.jpg)