[논문 리뷰] 단 13개의 파라미터로 LLM의 추론 능력을 깨우는 방법: Learning to Reason in 13 Parameters
TL;DR
최근 발표된 TinyLoRA는 언어 모델의 추론 능력을 학습하는 데 필요한 파라미터 수를 극단적으로 줄이는 혁신적인 방법론입니다. 이 연구는 강화학습(RL)을 통해 단 13개의 파라미터만으로 70억 파라미터 모델(7B)의 수학 추론 성능을 SFT(지도 미세조정) 풀파인튜닝에 준하는 수준까지 끌어올릴 수 있음을 보여줍니다. 핵심은 새로운 지식을 주입하는 것이 아니라, 모델이 이미 가지고 있는 내재된 능력을 '활성화'하는 데 있습니다. TinyLoRA는 특히 초대형 모델에서 더 적은 파라미터로 높은 효율을 보이며, 이는 모델의 지식을 바꾸지 않고도 성능을 극대화할 수 있다는 새로운 가능성을 제시합니다.
연구 배경 및 동기
거대 언어 모델(LLM)의 추론 능력을 향상시키기 위한 전통적인 접근법은 지도 미세조정(SFT)이나 파라미터 효율적 미세조정(PEFT)이었습니다. 하지만 SFT는 모델 전체를 업데이트해야 해 비용이 많이 들고, LoRA와 같은 PEFT 기법도 여전히 수백만 개의 파라미터를 필요로 합니다.
연구진은 여기서 한 가지 중요한 질문을 던집니다. "모델의 추론 능력을 향상시키는 것이 꼭 새로운 지식을 가르치는 과정이어야 할까? 아니면 이미 내재된 능력을 단순히 '켜는' 것만으로도 충분하지 않을까?"
이 질문에 대한 답을 찾기 위해, 그들은 지도 미세조정(SFT)과 강화학습(RL)의 근본적인 차이에 주목했습니다.
- SFT: 정답 예시의 모든 토큰(풀이 과정, 스타일 등)을 모방하도록 학습합니다. 이는 유용한 정보뿐만 아니라 불필요한 노이즈까지 학습하게 만들어 더 많은 파라미터 용량을 요구합니다.
- RL: 최종 결과가 '맞았는가/틀렸는가'와 같은 명확하고 압축된 보상(reward) 신호만으로 학습합니다. 이는 모델이 정답에 도달하는 최적의 경로를 스스로 찾도록 유도하며, 훨씬 적은 파라미터로도 가능하다는 가설을 세웠습니다.
이 가설을 증명하기 위해, 본 연구는 RL과 극단적인 파라미터 효율화 기법을 결합한 TinyLoRA를 제안합니다. 단 13개의 파라미터만으로 LLM의 추론 능력을 깨울 수 있는지 확인하는 것이 이 연구의 핵심 목표입니다.
관련 연구
| 연구 기법 | 핵심 아이디어 | 본 논문과의 차별점 |
|---|---|---|
| LoRA | 사전 학습된 가중치는 고정한 채, 저차원(Low-Rank) 행렬을 추가하여 학습. | LoRA가 수백만 개의 파라미터를 사용하는 반면, TinyLoRA는 이를 단 수십 개로 극단적으로 줄임. |
| RLHF/RLAIF | 강화학습을 통해 모델의 행동을 인간의 선호도나 특정 목표에 맞게 조정. | RL을 활용하는 점은 같지만, TinyLoRA는 RL을 파라미터 효율성을 극한으로 끌어올리는 수단으로 사용. |
| SFT | 대규모 정답 예시 데이터를 통해 모델을 특정 작업에 맞게 미세조정. | SFT가 '지식 주입'에 가깝다면, TinyLoRA는 RL을 통해 '능력 활성화'에 집중하여 파라미터 수를 줄임. |
| PEFT | LoRA, 어댑터 등 모델의 일부만 수정하여 학습 효율을 높이는 기법들의 총칭. | TinyLoRA는 PEFT의 철학을 계승하되, 파라미터 수를 전례 없는 수준으로 최소화. |
| SVD-based Adaptation | 특이값 분해(SVD)를 활용해 가중치 행렬의 중요한 구성 요소를 찾아내고 수정. | LoRA-XS와 같은 기존 SVD 기반 기법을 확장하여, 학습 가능한 파라미터를 단일 벡터로 압축. |
핵심 기여
- TinyLoRA 제안: 강화학습(RL)과 결합하여 단 13개의 파라미터로 LLM의 수학 추론 능력을 크게 향상시키는 방법론을 제시했습니다.
- 극단적인 파라미터 효율성: 전체 파인튜닝 대비 수백만 배 적은 파라미터를 사용하면서도, SFT 성능 향상 폭의 90% 이상을 달성했습니다.
- RL의 우월성 입증: 동일한 파라미터 수 조건에서, RL이 SFT보다 훨씬 적은 파라미터로 더 높은 성능을 달성할 수 있음을 실험적으로 증명했습니다.
- 모델 크기와 파라미터 수의 반비례 관계: 흥미롭게도, 모델의 크기가 클수록 최대 성능에 도달하는 데 필요한 학습 파라미터의 절대적인 수가 오히려 줄어드는 경향을 발견했습니다. 이는 더 큰 모델일수록 내재된 능력을 '활성화'하기가 더 쉽다는 것을 시사합니다.
- 기반 모델의 중요성: 동일 조건에서 Qwen 모델이 Llama 모델보다 훨씬 적은 파라미터로 높은 성능을 달성하여, 기반 모델의 사전 학습 품질이 TinyLoRA의 효율에 큰 영향을 미침을 보였습니다.
제안 방법론: TinyLoRA
핵심 아이디어와 이론적 근거
TinyLoRA의 아이디어는 "LLM의 가중치 행렬을 업데이트할 때, 가장 중요한 변화의 '방향'들은 이미 SVD(특이값 분해)를 통해 찾을 수 있다"는 점에서 출발합니다. 기존 LoRA가 저차원 행렬 를 직접 학습했다면, TinyLoRA는 한 단계 더 나아갑니다.
마치 복잡한 기계(LLM)를 조정할 때, 수많은 나사를 돌리는 대신(SFT/LoRA), 가장 결정적인 영향을 미치는 **단 하나의 다이얼(학습 가능한 벡터 v)**을 찾아 정밀하게 조작하는 것과 같습니다.
모델 아키텍처 상세 설명
TinyLoRA는 기존 가중치 행렬 를 업데이트하는 를 다음과 같이 구성합니다.
- SVD로 방향 탐색: 먼저, 기존 가중치 행렬 를 특이값 분해(SVD)하여 고정된 행렬 를 얻습니다. 이 행렬들은 가중치 공간에서 가장 중요한 '변화의 축'들을 담고 있습니다.
- 학습 가능한 핵심 벡터
v: LoRA가 크기의 행렬을 학습하는 것과 달리, TinyLoRA는 훨씬 작은 차원의 벡터 하나만 학습합니다. 이것이 TinyLoRA가 사용하는 거의 모든 학습 파라미터입니다. - 랜덤 투영으로 증폭: 학습된 벡터 를 직접 사용하기엔 차원이 너무 작습니다. 따라서 고정된 랜덤 텐서 를 사용해 작은 벡터 를 더 큰 차원의 업데이트 행렬로 '투영' 또는 '증폭'시킵니다. 이 과정에는 추가적인 학습 파라미터가 필요 없습니다.
핵심 수식
-
기존 LoRA:
- , ,
- 여기서 와 행렬 전체가 학습 대상입니다. (파라미터 수: )
-
LoRA-XS (SVD 기반 LoRA):
- (SVD)
- 여기서 행렬이 학습 대상입니다.
-
TinyLoRA:
- : 의 SVD로 얻은 고정된 행렬입니다.
- : 유일하게 학습 가능한 핵심 벡터입니다. (가 바로 파라미터 수, 예: 13)
- : 미리 생성된 고정된 랜덤 투영 행렬입니다.
TinyLoRA 개념을 코드로 이해하기
실제 구현은 더 복잡하지만, 핵심 아이디어를 torch 스타일의 의사코드로 표현하면 다음과 같습니다.
import torch
# 1. 초기 설정
d, k = 4096, 11008 # 예시 차원 (LLaMA-7B의 FFN 레이어)
r = 64 # SVD를 위한 랭크
u = 13 # 학습할 파라미터의 수 (TinyLoRA의 핵심!)
W = torch.randn(d, k) # 사전 학습된 가중치 행렬
# 2. SVD를 통해 고정된 행렬 U, V, Sigma 얻기 (사전 계산)
U, S, Vh = torch.linalg.svd(W)
U_r = U[:, :r]
Sigma_r = torch.diag(S[:r])
Vh_r = Vh[:r, :]
V_r = Vh_r.T
# 3. 고정된 랜덤 프로젝터 P 생성 (사전 계산)
P = torch.randn(u, r, r)
P.requires_grad = False # P는 학습하지 않음!
# --- 학습 과정 ---
# 4. 유일하게 학습 가능한 벡터 v 정의
v = torch.randn(u, requires_grad=True)
optimizer = torch.optim.Adam([v], lr=0.001)
# (학습 루프 시작)
# ...
# 5. v와 P를 사용해 업데이트 행렬 R_proj 생성
R_proj = torch.einsum('i,ijk->jk', v, P) # v_i * P_i 를 모두 더함
# 6. 최종 가중치 업데이트 Delta_W 계산
# U, Sigma, V는 고정되어 있음을 주목!
Delta_W = U_r @ Sigma_r @ R_proj @ V_r.T
# 7. 업데이트된 가중치 W_new 계산
W_new = W + Delta_W
# ...
# loss 계산 후 optimizer.step()으로 v만 업데이트
# (학습 루프 종료)
실험 설정
- 데이터셋: GSM8K, MATH 등 표준 수학 추론 벤치마크
- 평가 지표: 정확도 (pass@1)
- 기반 모델: Qwen1.5 (0.5B, 1.8B, 4B, 7B), Llama2 (7B)
- 학습 방법: 강화학습(PPO 알고리즘)과 지도 미세조정(SFT) 비교
- 하이퍼파라미터 (대표값):
| 하이퍼파라미터 | 값 |
|---|---|
| 학습률 (Learning Rate) | 1e-3 |
| 배치 크기 (Batch Size) | 32 |
| 에폭 수 (Epochs) | 10 |
실험 결과 분석
주요 결과
-
RL의 압도적인 효율성: Qwen1.5-7B 모델을 GSM8K 데이터셋으로 학습시켰을 때, RL은 단 13개의 파라미터만으로 SFT 풀파인튜닝 성능의 **91%**에 도달했습니다. 반면, 같은 수의 파라미터로 SFT를 진행했을 때는 성능 향상이 거의 없었습니다.
-
모델 크기와의 반비례 관계: 아래 그래프에서 볼 수 있듯이, 모델의 크기가 커질수록(0.5B -> 7B), 최고 성능에 도달하는 데 필요한 학습 파라미터의 수가 오히려 감소했습니다. 7B 모델은 단 13개 파라미터로 최고점에 도달했지만, 0.5B 모델은 수천 개가 필요했습니다. 이는 큰 모델일수록 추론 능력이 이미 내재되어 있어 약간의 '조정'만으로도 활성화될 수 있음을 시사합니다.
-
기반 모델의 성능 차이: Qwen1.5-7B 모델은 13개 파라미터로 57.1%의 정확도를 달성한 반면, Llama2-7B 모델은 1,725개 파라미터로 42.1%를 달성했습니다. 이는 TinyLoRA의 효과가 기반 모델의 사전 학습 품질에 크게 의존한다는 것을 보여줍니다.
Ablation Study 분석
u와r의 관계: 동일한 총 파라미터 예산() 하에서, 학습 가능한 벡터의 차원u를 늘리고 투영 공간의 차원r을 줄이는 것보다,u를 작게 유지하고r을 크게 하는 것이 더 효과적이었습니다. 이는 제한된 파라미터를 '더 적지만, 더 넓은 공간에 영향을 미치는' 방식으로 사용하는 것이 효율적임을 의미합니다.
비판적 평가
강점
- 혁신적인 패러다임: '지식 주입'이 아닌 '능력 활성화'라는 새로운 관점을 제시하며, 파라미터 효율적 튜닝의 새로운 지평을 열었습니다.
- 압도적인 효율성: 수백만 배 적은 파라미터로 유사한 성능을 낸다는 점은 실용적으로 매우 큰 가치를 지닙니다.
- RL의 잠재력 입증: LLM 튜닝에서 RL이 SFT보다 훨씬 효율적인 신호가 될 수 있음을 명확히 보여주었습니다.
한계점 및 개선 방향
- 제한된 적용 범위: 현재 실험은 수학 추론과 같이 정답이 명확한 태스크에 국한되어 있습니다. 창의적 글쓰기나 대화와 같은 복잡하고 주관적인 태스크에서도 동일한 효율성을 보일지는 추가 연구가 필요합니다.
- 구현의 복잡성: SVD 계산 및 랜덤 텐서 관리 등, 기존 LoRA에 비해 구현이 다소 복잡하고 하이퍼파라미터에 민감할 수 있습니다.
- 재현성 문제: SVD 결과와 랜덤 텐서 초기화에 따라 성능 편차가 발생할 수 있어, 안정적인 재현을 위한 추가적인 연구가 필요할 수 있습니다.
향후 연구 방향
- 다양한 도메인으로의 확장: 코딩, 번역, 요약 등 다른 추론 기반 태스크에 TinyLoRA를 적용하여 일반화 가능성을 검증하는 연구가 필요합니다.
- 메커니즘 분석: 왜 더 큰 모델이 더 적은 파라미터를 필요로 하는지에 대한 심층적인 분석(예: 특정 뉴런이나 어텐션 헤드의 활성화 패턴 분석)이 이뤄진다면 LLM의 작동 원리를 이해하는 데 큰 도움이 될 것입니다.
- SVD 및 프로젝션 기법 개선: SVD 대신 다른 행렬 분해 기법을 사용하거나, 랜덤 프로젝션이 아닌 학습 가능한 프로젝션을 도입하는 등 방법론 자체를 개선할 여지가 있습니다.
실무 적용 가이드
- 강력한 기반 모델 선택: 실험 결과에서 보았듯이, TinyLoRA의 성공은 강력한 기반 모델에 크게 의존합니다. 가능한 한 성능이 검증된 최신 모델을 사용하는 것이 좋습니다.
- 명확한 보상 함수가 있는 태스크에 우선 적용: 수학 문제 풀이나 코드 생성처럼 결과의 정오를 명확하게 판별할 수 있어 RL 보상 함수를 설계하기 쉬운 태스크에 우선적으로 적용해볼 수 있습니다.
- 초저비용 실험 및 서빙: 수십 개의 파라미터만 저장하고 서빙하면 되므로, 하나의 기본 모델에 수천, 수만 개의 각기 다른 'TinyLoRA 어댑터'를 적용하여 다중 태스크를 초저비용으로 서빙하는 시나리오를 구상해볼 수 있습니다.
결론
"Learning to Reason in 13 Parameters"는 LLM 튜닝에 대한 우리의 생각을 근본적으로 바꾸는 중요한 연구입니다. 강화학습과 TinyLoRA의 결합을 통해, 우리는 이제 모델에 새로운 지식을 힘들게 주입하는 대신, 이미 잠재된 능력을 최소한의 비용으로 '깨우는' 방법을 갖게 되었습니다. 이 연구는 LLM이 단순한 패턴 암기 기계를 넘어, 조정 가능한 추론 엔진으로 발전할 수 있음을 보여주는 강력한 증거이며, 앞으로 더욱 효율적이고 정교한 모델 튜닝 기법의 등장을 예고합니다.
참고 자료
- 논문 원문: Learning to Reason in 13 Parameters (arXiv:2405.04118)
- 코드 저장소: (공식 저장소는 아직 공개되지 않았습니다)
- 관련 자료: 저자의 트위터 스레드

![[논문 리뷰] Learning to Reason in 13 Parameters](/assets/images/blog/20260209-paper-2602-04118-learning-to-reason-in-13-param.jpg)