[논문 리뷰] Reasoning to Learn from Latent Thoughts: 잠재적 사고 추론을 통한 학습
TL;DR
컴퓨팅 자원의 확장이 인간이 생성하는 텍스트의 증가 속도를 추월하면서, 고품질 데이터 부족이 언어 모델(LM) 발전의 주요 병목이 되고 있습니다. 이 논문은 텍스트에 명시적으로 드러나지 않는 '잠재적 사고(Latent Thoughts)' 즉, 추론 과정을 모델이 스스로 추론하고 학습 데이터로 활용하는 BoLT(Bootstrapping Latent Thoughts) 프레임워크를 제안합니다. 실험 결과, 제한된 데이터 환경에서 BoLT는 단순히 데이터를 반복 학습하거나 외부 모델로 생성한 데이터로 학습하는 것보다 월등한 성능을 보였습니다. 이는 모델이 스스로의 추론 능력을 강화하는 자기 개선(self-improving) 루프를 통해 데이터 효율성을 극대화할 수 있음을 시사합니다.
연구 배경 및 동기
대규모 언어 모델(LLM)의 발전은 막대한 양의 데이터와 컴퓨팅 자원에 크게 의존해왔습니다. 하지만 Chinchilla 스케일링 법칙에 따르면, 모델 크기가 커질수록 필요한 데이터의 양도 기하급수적으로 증가합니다. 이미 웹에서 수집 가능한 고품질 텍스트 데이터는 한계에 다다르고 있어, 데이터 부족은 LLM 발전의 심각한 제약이 되고 있습니다.
기존 언어 모델은 주어진 텍스트의 표면적인 패턴(e.g., 다음 단어 예측)을 학습합니다. 하지만 인간은 텍스트를 생성하거나 이해할 때 그 이면에 있는 복잡한 추론, 계획, 배경지식을 활용합니다. 이러한 과정은 최종 텍스트에는 압축되어 명시적으로 드러나지 않는 '잠재적 사고'입니다.
본 연구는 이러한 문제에 착안하여, 모델이 관찰된 텍스트()로부터 잠재적 사고()를 추론하고, 이를 다시 학습 데이터로 활용하여 데이터 효율성을 극대화하는 새로운 패러다임을 제안합니다. 이는 마치 학생이 문제의 정답뿐만 아니라 풀이 과정까지 학습하여 응용력을 키우는 것과 유사합니다.
관련 연구
데이터 효율성을 높이기 위한 연구는 꾸준히 진행되어 왔습니다.
- BERT, GPT, T5, XLNet: 이 모델들은 대규모 텍스트 코퍼스를 활용한 사전 훈련으로 NLP의 성능을 비약적으로 향상시켰습니다. 그러나 이들은 주로 표면적인 텍스트 데이터에 의존하며, 데이터의 양이 성능을 결정하는 핵심 요소였습니다.
- Chain-of-Thought (CoT): CoT는 모델에게 추론 과정을 명시적으로 생성하도록 유도하여 복잡한 추론 문제 해결 능력을 향상시켰습니다. 하지만 이는 주로 프롬프팅 기법이거나, 추론 과정이 포함된 데이터를 별도로 구축해야 하는 한계가 있습니다.
- 자기 개선(Self-Improvement) 연구: 모델이 생성한 결과를 다시 학습에 활용하는 연구들이 있었으나, 생성된 결과의 품질을 보장하기 어렵다는 문제가 있었습니다.
본 연구는 기존 연구들과 달리, 외부의 정답이나 레이블 없이 관찰된 텍스트()만을 이용해 그 이면의 잠재적 사고()를 추론하고, 이를 학습에 활용하는 독자적인 접근법을 취합니다. 이는 CoT처럼 명시적인 추론 데이터에 의존하지 않으면서도 모델의 추론 능력을 내부적으로 강화하는 새로운 길을 제시합니다.
| 연구 | 접근법 | 본 연구와의 차별점 |
|---|---|---|
| BERT/GPT | 대규모 텍스트 기반 사전 훈련 | 표면적 텍스트 패턴 학습에 집중, 잠재적 추론 과정은 미고려 |
| Chain-of-Thought (CoT) | 명시적 추론 과정 생성 유도 | 추론 과정이 포함된 데이터가 필요하거나 프롬프트에 의존 |
| WRAP (Synthetic Data) | 외부 모델로 합성 데이터 생성 | 외부의 더 큰 '교사' 모델에 의존, 자기 개선 능력 부재 |
| 본 연구 (BoLT) | 잠재적 사고 추론 및 부트스트래핑 | 외부 데이터 없이 스스로 잠재적 사고를 추론하고 학습하여 자기 개선 |
핵심 기여
- 잠재적 사고 모델링: 텍스트 생성의 기저에 있는 잠재적 사고를 확률 모델로 정의하고, 이를 추론하여 데이터 효율성을 극대화하는 새로운 방법론을 제시했습니다.
- 자기 개선 알고리즘 (BoLT): 모델이 스스로 잠재적 사고를 생성하고 이를 다시 학습하여 성능을 점진적으로 개선하는 BoLT(Bootstrapping Latent Thoughts) 알고리즘을 개발했습니다. 이는 EM(Expectation-Maximization) 알고리즘과 유사한 방식으로 작동합니다.
- 데이터 효율성 입증: 수학 추론 벤치마크(MATH, GSM8K)에서 제한된 데이터로 학습했음에도 불구하고, 훨씬 많은 양의 원본 데이터로 학습한 모델이나 합성 데이터로 학습한 모델보다 뛰어난 성능을 보임을 입증했습니다.
- 새로운 학습 패러다임 제시: '학습을 위한 추론 (Reasoning to Learn)'이라는 새로운 패러다임을 제시하며, 모델이 단순히 데이터를 암기하는 것을 넘어 데이터로부터 더 깊은 구조와 원리를 학습할 수 있는 가능성을 열었습니다.
제안 방법론
본 연구는 잠재 변수 모델(Latent Variable Model)을 기반으로, 관찰된 텍스트 와 그 이면의 잠재적 사고 사이의 관계를 모델링합니다.
핵심 아이디어와 이론적 근거
핵심 아이디어는 하나의 언어 모델이 두 가지 역할을 동시에 수행하도록 학습시키는 것입니다.
- 사고 생성기 (Generator): 잠재적 사고 가 주어졌을 때, 최종 텍스트 를 생성합니다. ()
- 사고 추론기 (Inference Network): 최종 텍스트 가 주어졌을 때, 그럴듯한 잠재적 사고 를 추론합니다. ()
이 과정은 EM(Expectation-Maximization) 알고리즘에 비유할 수 있습니다.
- E-Step (Expectation): 현재 모델의 추론기 를 사용하여 주어진 데이터 에 대한 잠재적 사고 를 샘플링합니다.
- M-Step (Maximization): 샘플링된 쌍을 완전한 데이터로 간주하고, 이를 이용해 모델의 생성기 를 학습(최대화)합니다.
이 두 단계를 반복하면서 모델은 더 나은 사고를 추론하고, 그 사고를 바탕으로 더 정교한 텍스트 생성 능력을 학습하게 됩니다.
예시: 수학 문제
- 관찰된 텍스트 (): "철수는 사과 5개와 배 3개를 가지고 있습니다. 각 과일의 가격이 1000원이라면 총 얼마를 내야 할까요? 정답: 8000원"
- 추론된 잠재적 사고 (): "사과 가격 계산: 5개 * 1000원 = 5000원. 배 가격 계산: 3개 * 1000원 = 3000원. 총합: 5000원 + 3000원 = 8000원."
모델은 만 보고도 중간 계산 과정인 를 추론해내고, (Z, X) 쌍을 새로운 학습 데이터로 활용합니다.
모델 아키텍처 및 학습 과정
하나의 트랜스포머 기반 언어 모델이 와 의 역할을 모두 수행합니다. 이는 입력 데이터의 형식을 다르게 하여 구현됩니다. 특수 토큰 <StartOfLatent>, <Prior>를 사용하여 두 모드를 구분합니다.
- 생성 모델 학습:
- 입력 형식:
<StartOfLatent><Prior> - 목표: 와 를 순차적으로 예측하도록 학습 (결합 확률 모델링)
- 입력 형식:
- 추론 모델 학습:
- 입력 형식:
<StartOfLatent> - 목표: 가 주어진 후 를 예측하도록 학습 (조건부 확률 모델링)
- 입력 형식:
훈련 시, 50%의 확률로 각 형식을 사용하여 표준적인 다음 토큰 예측(next-token prediction) 손실 함수로 모델을 학습시킵니다.
핵심 수식
-
잠재적 사고 추론 (Inference Model):
- 관찰된 텍스트 를 바탕으로 잠재적 사고 의 분포를 모델링합니다. 는 모델의 파라미터입니다.
-
생성 모델 (Generative Model):
- 잠재적 사고 와 텍스트 의 결합 확률 분포를 모델링합니다. 는 모델의 파라미터입니다. (본 논문에서는 )
-
학습 목표 (ELBO):
- 이 수식은 관찰된 데이터 의 로그 가능성(log-likelihood)에 대한 증거 하한(Evidence Lower Bound, ELBO)을 나타냅니다. BoLT 알고리즘은 이 ELBO를 최대화하는 방향으로 모델을 학습시켜, 데이터 생성 과정과 추론 과정을 동시에 최적화합니다.
실험 설정
데이터셋, 평가 지표, 베이스라인
- 데이터셋: FineMath 데이터셋에서 추출한 480M 토큰의 제한된 데이터.
- 평가 지표: MATH, GSM8K 등 표준 수학 추론 벤치마크의 정확도(accuracy).
- 베이스라인:
Raw-Repeat: 제한된 480M 토큰 데이터를 여러 번 반복하여 학습.Raw-Fresh: 480M 토큰보다 훨씬 많은 양의 고유한 원본 데이터로 학습.WRAP-CoT: 더 큰 교사 모델(e.g., GPT-4)을 사용하여 원본 데이터에 CoT(추론 과정)를 추가한 합성 데이터로 학습.
하이퍼파라미터 표
| 하이퍼파라미터 | 값 | 비고 |
|---|---|---|
| 모델 | Llama-2-like | 1.1B 파라미터 |
| 학습률 (Learning Rate) | 1e-4 | Cosine-annealing 스케줄 |
| 배치 크기 (Batch Size) | 64 | |
| 총 학습 스텝 | 100K | |
| 샘플 수 (K) | 5 | E-step에서 각 에 대해 샘플링하는 의 개수 |
실험 결과 분석
주요 결과 표
| 모델 | 데이터 | MATH 점수 | GSM8K 점수 |
|---|---|---|---|
| Raw-Repeat | 480M (반복) | 11.2% | 15.3% |
| Raw-Fresh | 4.8B (고유) | 19.4% | 22.8% |
| WRAP-CoT | 480M + 합성 CoT | 25.4% | 28.6% |
| BoLT (제안 모델) | 480M (자체 생성) | 30.2% | 33.1% |
결과 해석
- BoLT의 압도적 성능: 제안 모델(BoLT)은 모든 베이스라인을 큰 차이로 능가했습니다. 특히 10배나 많은 고유 데이터로 학습한
Raw-Fresh모델보다도 월등히 높은 성능을 기록한 점이 인상적입니다. - 데이터 효율성: 이는 단순히 데이터의 양을 늘리는 것보다, 데이터에 내재된 추론 과정을 학습하는 것이 훨씬 효율적임을 시사합니다.
- 자기 개선의 힘: 외부 교사 모델을 사용한
WRAP-CoT보다도 스스로 추론하고 학습한 BoLT의 성능이 더 높았습니다. 이는 모델이 자신의 능력에 맞춰 점진적으로 학습하는 부트스트래핑 방식이 더 효과적일 수 있음을 보여줍니다.
성능 향상률(%) 계산
Raw-Fresh대비 MATH 점수 향상률:Raw-Fresh대비 GSM8K 점수 향상률:
비판적 평가
강점
- 혁신적인 데이터 효율성: 데이터 부족 문제를 정면으로 다루며, 제한된 데이터로 최대의 성능을 이끌어내는 매우 실용적이고 강력한 방법을 제시했습니다.
- 자기 개선 능력: 외부의 감독이나 더 큰 모델 없이 스스로 성능을 개선할 수 있는 프레임워크를 구현하여 모델의 자율성과 확장성을 높였습니다.
- 새로운 패러다임: 'Reasoning to Learn'은 데이터 중심 AI에서 모델 중심 AI로의 전환 가능성을 보여주는 중요한 개념적 기여입니다.
한계점과 개선 방향
- 추론 품질의 함정: 모델이 초기에 잘못된 추론(hallucination)을 생성할 경우, 이것이 다시 학습 데이터로 사용되어 성능 저하를 야기하는 부정적인 피드백 루프에 빠질 위험이 있습니다. 추론된 사고의 품질을 필터링하거나 검증하는 메커니즘이 필요합니다.
- 도메인 일반화: 실험이 수학 추론이라는 특정 도메인에 집중되어 있습니다. 코딩, 창의적 글쓰기 등 다른 종류의 잠재적 사고가 필요한 도메인에서도 동일한 효과를 보일지는 추가 검증이 필요합니다.
- 계산 비용: E-step에서 여러 개의 잠재적 사고를 샘플링하고, 이를 다시 학습 데이터로 사용하는 과정은 기존 학습 방식보다 더 많은 계산 비용을 요구할 수 있습니다.
향후 연구 방향
- 다양한 도메인 적용: 수학 문제를 넘어 코드 생성, 스토리 창작, 법률 문서 분석 등 복잡한 추론이 필요한 다양한 도메인에 BoLT를 적용하여 일반화 가능성을 검증할 수 있습니다.
- 추론 품질 제어: 생성된 잠재적 사고의 일관성, 논리적 타당성을 평가하고 필터링하는 기법(e.g., 대조적 디코딩, 검증기 모델)을 통합하여 학습 안정성을 높이는 연구가 필요합니다.
- 모델 경량화: 잠재적 사고 추론 능력을 유지하면서도 모델의 크기와 계산 비용을 줄일 수 있는 경량화 기법(e.g., 지식 증류)과의 결합을 탐구할 수 있습니다.
실무 적용 가이드
- 데이터 준비: 고품질의 '정답' 데이터가 소량이라도 확보된 상황에서 데이터 증강을 위해 이 방법론을 적용할 수 있습니다. 문제와 답 쌍만 있는 데이터셋에 적용하여 풀이 과정 데이터를 자동으로 생성하는 데 유용합니다.
- 하이퍼파라미터 튜닝: BoLT의 성능은 E-step에서 샘플링하는 잠재적 사고의 개수(), EM 스텝의 반복 주기 등 새로운 하이퍼파라미터에 민감할 수 있습니다. 도메인 특성에 맞는 최적의 값을 찾는 실험이 중요합니다.
- 점진적 학습: 처음부터 BoLT를 적용하기보다, 먼저 원본 데이터로 모델을 일정 수준까지 학습시킨 후(warm-up), BoLT를 적용하여 점진적으로 성능을 개선하는 방식이 안정적일 수 있습니다.
결론
본 연구는 데이터 부족이라는 LLM 시대의 근본적인 난제를 해결하기 위해 '잠재적 사고'라는 개념을 도입하고, 이를 모델이 스스로 추론하고 학습하는 BoLT 프레임워크를 제시했습니다. 이는 단순히 더 많은 데이터를 투입하는 스케일링 경쟁에서 벗어나, 주어진 데이터로부터 깊이 있는 학습을 통해 모델의 내재적 추론 능력을 강화하는 새로운 길을 열었습니다. 'Reasoning to Learn' 패러다임은 향후 데이터 제약 환경에서 AI 모델을 발전시키는 핵심적인 연구 방향이 될 잠재력을 가지고 있습니다.
참고 자료
- 논문 링크: arXiv:2503.18866 (가상 링크)
- 코드 저장소: GitHub Repository (가상 링크)
- 관련 자료: Additional Resources (가상 링크)

![[논문 리뷰] Reasoning to Learn from Latent Thoughts](/assets/images/blog/20260223-paper-2503-18866-reasoning-to-learn-from-latent.jpg)