[논문 리뷰] Attention to Mamba: A Recipe for Cross-Architecture Distillation
TL;DR
State Space Models (SSMs)의 일종인 Mamba는 기존 Transformer의 강력한 대안으로 주목받고 있습니다. 이 논문은 Transformer의 높은 성능은 유지하면서 Mamba의 선형적 계산 효율성을 얻기 위한 '2단계 지식 증류(Knowledge Distillation)' 레시피를 제안합니다. 먼저 Transformer의 어텐션을 선형 어텐션으로 변환한 뒤, 이를 다시 Mamba 아키텍처로 증류하는 방식을 사용합니다. 실험 결과, 이 방법으로 변환된 Mamba 모델은 원본 Transformer 성능의 98% 이상을 달성하면서도 추론 속도는 2.2배 향상되고 메모리 사용량은 크게 줄어드는 성과를 보였습니다. 이는 대규모 언어 모델을 더 적은 자원으로 효율적으로 운영할 수 있는 실용적인 길을 제시합니다.
연구 배경 및 동기
Transformer 모델은 Self-Attention 메커니즘을 통해 자연어 처리(NLP) 분야에서 압도적인 성능을 보여주었습니다. 하지만 Self-Attention은 시퀀스 길이()에 따라 메모리 사용량과 계산량이 제곱()으로 증가하는 근본적인 한계를 가집니다. 이로 인해 긴 컨텍스트를 처리하는 데 비효율적이며 막대한 컴퓨팅 자원을 필요로 합니다.
반면, Mamba와 같은 State Space Model (SSM)은 시퀀스 길이에 선형적으로() 계산량이 증가하여 긴 시퀀스를 훨씬 효율적으로 처리할 수 있습니다. 이 연구의 동기는 명확합니다: "Transformer의 검증된 성능과 Mamba의 계산 효율성, 두 마리 토끼를 모두 잡을 수 없을까?" 기존의 교차 아키텍처 지식 증류는 두 아키텍처의 구조적 차이 때문에 성능 손실이 컸지만, 이 논문은 Mamba에 최적화된 초기화와 증류 전략을 통해 이 문제를 해결하고자 합니다.
관련 연구
Transformer의 계산 비효율성을 해결하기 위해 다양한 연구가 진행되었습니다. 일부는 어텐션과 SSM 블록을 단순히 결합하는 하이브리드 아키텍처를 제안했습니다. 하지만 이런 접근은 두 메커니즘의 장점을 완전히 통합하지 못하는 경우가 많았습니다.
이 연구는 여기서 한 걸음 더 나아갑니다. 어텐션 메커니즘 자체를 수학적으로 SSM과 유사한 형태로 변환(선형화)한 뒤, 그 지식을 Mamba로 이전하는 방식을 택합니다. 이는 단순히 블록을 섞는 것이 아니라, Transformer의 핵심 원리를 Mamba의 구조에 맞게 '번역'하는 것과 같아 기존 연구들과 차별화됩니다.
핵심 기여
- 실용적인 2단계 지식 증류 레시피 제안: Transformer를 Mamba로 효과적으로 변환하는 구체적이고 재현 가능한 2단계 증류 프로세스를 정립했습니다.
- 어텐션과 SSM의 연결고리 마련: 표준 Softmax 어텐션을 선형 어텐션(Linear Attention)으로 근사하여, 어텐션의 재귀적(recurrent) 표현과 SSM의 상태 전이(state transition) 사이의 수학적 유사성을 활용했습니다. 이는 두 아키텍처 간의 성공적인 지식 이전을 가능하게 하는 핵심 아이디어입니다.
- 성능 손실 최소화 입증: Pythia-1B 모델을 Mamba로 변환했을 때, 원본 성능의 98% 이상을 유지하면서 추론 속도와 메모리 효율성을 크게 향상시킬 수 있음을 실험적으로 증명했습니다.
핵심 방법론: 2단계 지식 증류 레시피
이 연구의 핵심은 두 단계로 구성된 지식 증류 프로세스입니다.
1단계: 어텐션을 선형 어텐션으로 증류 (Attention to Linear Attention)
첫 단계는 표준 Transformer의 Softmax 어텐션을 계산적으로 더 저렴한 선형 어텐션으로 변환하는 것입니다.
-
표준 Softmax 어텐션:
이 수식의
softmax함수는 전체 시퀀스에 대한 정보를 필요로 하므로 복잡도의 원인이 됩니다. -
선형 어텐션 근사:
softmax를 제거하고 커널 함수 를 도입하여 어텐션을 다음과 같이 근사합니다.여기서 는 비선형 특징 맵(예:
elu(x) + 1)으로, 연산 순서를 변경하여 복잡도로 계산할 수 있게 해줍니다. 이 단계에서는 원본 Transformer(교사)가 선형 어텐션 모델(학생)을 학습시킵니다.
2단계: 선형 어텐션을 Mamba로 변환 및 증류 (Linear Attention to Mamba)
두 번째 단계는 1단계에서 얻은 선형 어텐션 모델을 최종 목표인 Mamba 아키텍처로 변환하는 것입니다.
- 수학적 연결: 선형 어텐션은 재귀적인 형태로 표현될 수 있으며, 이는 SSM의 상태 전이 방정식과 매우 유사한 구조를 가집니다.
- SSM의 상태 전이:
- 선형 어텐션의 재귀적 표현:
- 가중치 초기화: 이 유사성을 바탕으로, 1단계에서 학습된 선형 어텐션 모델의 가중치를 사용하여 Mamba 모델의 파라미터를 초기화합니다. 이 '따뜻한 시작(warm start)'은 Mamba가 교사 모델의 지식을 훨씬 빠르고 효과적으로 학습하게 돕습니다.
- 최종 증류: 초기화된 Mamba 모델(학생)을 1단계의 선형 어텐션 모델(교사)을 사용하여 다시 한번 증류 학습을 진행하여 성능을 최종적으로 끌어올립니다.
실험 설정
- 교사 모델: Pythia-1B Transformer
- 학생 모델: HedgeMamba (본 논문에서 제안한 방법으로 변환된 Mamba)
- 데이터셋: OpenWebText 데이터셋의 100억 개 토큰
- 평가 지표: Perplexity(PPL) 및 다양한 다운스트림 태스크 성능 (MMLU, HellaSwag 등)
- 하드웨어: NVIDIA A100 GPU 8개
실험 결과 분석
실험 결과는 매우 인상적입니다. 제안된 2단계 증류를 통해 탄생한 HedgeMamba 모델은 성능과 효율성 두 측면에서 모두 뛰어난 결과를 보였습니다.
| 모델 | Perplexity (PPL) | 교사 모델 대비 성능 | 추론 처리량 |
|---|---|---|---|
| Pythia-1B (교사) | 13.86 | 100% | 1.0x |
| HedgeMamba (학생) | 14.11 | 98.2% | 2.2x |
- 성능 유지: 최종 변환된 HedgeMamba 모델은 PPL 14.11을 기록하여, 원본 교사 모델(13.86)에 매우 근접한 성능을 달성했습니다. 다양한 다운스트림 벤치마크에서도 교사 모델 성능의 98% 이상을 유지하며 성능 손실을 최소화했습니다.
- 효율성 향상: Mamba 아키텍처의 이점을 그대로 가져와, 시퀀스 길이가 길어질수록 추론 처리량이 원본 Transformer 대비 최대 2.2배까지 향상되었고 메모리 사용량도 크게 감소했습니다.
비판적 평가
이 연구는 Transformer와 Mamba의 장점을 효과적으로 결합하는 실용적인 방법을 제시했다는 점에서 큰 강점을 가집니다.
- 장점: 두 아키텍처의 간극을 잇는 명확한 '레시피'를 제공하여, 기존에 학습된 수많은 Transformer 자산을 효율적인 Mamba 모델로 전환할 수 있는 길을 열었습니다.
- 한계점:
- 일반화 가능성: 연구는 특정 모델(Pythia)과 데이터셋(OpenWebText)에 초점을 맞추고 있어, 다른 종류의 데이터나 더 큰 모델 스케일에서도 동일한 효과를 보일지는 추가 검증이 필요합니다.
- 프로세스의 복잡성: 2단계 증류 과정은 단일 모델을 처음부터 학습시키는 것보다 복잡하고 추가적인 컴퓨팅 자원을 요구할 수 있습니다.
향후 연구 방향
- 다양한 모델 및 도메인 적용: 이 레시피를 더 큰 모델(예: 7B, 70B)이나 코드, 이미지 등 다른 데이터 도메인에 적용하여 일반화 가능성을 검증할 수 있습니다.
- 증류 프로세스 최적화: 2단계 증류를 1단계로 통합하거나, 가중치 초기화 방법을 더욱 정교하게 만들어 변환 과정을 더 효율적으로 만들 수 있습니다.
- 다른 SSM 변종 탐색: Mamba 외에 다른 효율적인 SSM 아키텍처(예: S6)에 이 증류 레시피를 적용하는 연구도 흥미로운 방향이 될 것입니다.
실무 적용 가이드
이 방법론을 실무에 적용하고자 할 때 다음 사항을 고려할 수 있습니다.
- 고품질 교사 모델 확보: 증류의 성공은 교사 모델의 성능에 크게 좌우됩니다. 목표 태스크에 대해 잘 학습된 고품질 Transformer 모델을 준비하는 것이 가장 중요합니다.
- 2단계 프로세스의 중요성 이해: 중간 단계인 '선형 어텐션 모델'로의 변환을 건너뛰지 않는 것이 중요합니다. 이 단계는 Mamba의 성공적인 초기화를 위한 핵심적인 징검다리 역할을 합니다.
- 자원 제약 환경에 최적: 이미 운영 중인 Transformer 기반 서비스를 엣지 디바이스, 모바일 기기, 혹은 소규모 GPU 서버 등 자원이 제한된 환경에 배포해야 할 때 이 방법론은 매우 효과적인 솔루션이 될 수 있습니다.
결론
"Attention to Mamba"는 단순히 새로운 모델을 제안하는 것을 넘어, 기존의 강력한 Transformer 모델 자산을 차세대 고효율 아키텍처인 Mamba로 '재활용'할 수 있는 구체적이고 실용적인 청사진을 제시했습니다. 이 연구는 대규모 언어 모델의 민주화를 앞당기고, 더 적은 자원으로 더 많은 AI 서비스를 구현하는 데 기여할 중요한 이정표가 될 것입니다.
참고 자료
- 논문 원문: arXiv:2404.14191
- 공식 코드 저장소: HedgeMind/hedgemamba on GitHub

![[논문 리뷰] Attention to Mamba: A Recipe for Cross-Architecture Distillation](/assets/images/blog/20260503-paper-2604-14191-attention-to-mamba-a-recipe-fo.jpg)