[논문 리뷰] 언어의 통계에서 신경망 스케일링 법칙 유도하기 (Deriving Neural Scaling Laws from the statistics of natural language)
TL;DR
지금까지 대규모 언어 모델(LLM)의 성능 예측은 거대한 모델을 직접 학습시키는 경험적 방법에 의존했습니다. 이 논문은 패러다임을 전환합니다. 자연어 데이터 자체의 통계적 특성만으로 LLM의 스케일링 법칙(Scaling Law)을 이론적으로 유도하는 혁신적인 프레임워크를 제시합니다. 특히, 토큰 간 상관관계가 거리에 따라 감소하는 속도()와 문맥이 길어질수록 다음 토큰 예측의 불확실성이 줄어드는 속도()라는 두 가지 지표를 통해, 데이터 양에 따른 모델의 성능 향상률()을 예측합니다. 놀랍게도, 이 이론적 예측은 실제 LLM 학습 결과와 거의 일치했으며, 이는 LLM 연구에 견고한 이론적 토대를 제공하고 막대한 훈련 비용을 절감할 잠재력을 보여줍니다.
연구 배경 및 동기
LLM의 성능이 모델 크기, 데이터 양, 연산량에 따라 어떻게 향상되는지를 설명하는 '스케일링 법칙'은 AI 분야의 핵심 화두입니다. OpenAI의 Kaplan(2020)이나 DeepMind의 Chinchilla(2022)와 같은 선구적인 연구들은 수많은 실험을 통해 "모델과 데이터를 키우면 성능이 로그-선형적으로 좋아진다"는 경험적 법칙을 발견했습니다.
하지만 이런 경험적 접근법에는 근본적인 한계가 있습니다.
- 사후 분석적: 법칙을 찾기 위해 이미 막대한 자원을 소모한 뒤에야 결과를 알 수 있습니다.
- 예측의 불확실성: 새로운 데이터셋이나 아키텍처에 기존 법칙이 그대로 적용될지 보장할 수 없습니다.
이 연구는 "LLM이 학습하는 데이터 자체에 성능의 비밀이 있지 않을까?"라는 질문에서 출발합니다. 즉, 모델을 훈련시키기 전에 데이터의 내재적 통계 특성을 분석하여, 데이터 양이 늘어남에 따라 모델 성능이 얼마나 향상될지를 이론적으로 예측하고자 합니다. 특히 이 논문은 모델과 연산량은 충분하지만, 고품질 데이터가 제한되는 데이터 제한(Data-limited) 상황에서의 성능 예측에 초점을 맞춥니다.
관련 연구
기존 스케일링 법칙 연구는 대부분 경험적 관찰에 기반합니다.
| 연구 | 접근 방식 | 핵심 발견 및 차별점 |
|---|---|---|
| Kaplan et al. (2020) | 경험적 분석 | 모델 크기, 데이터셋 크기, 연산량에 따른 손실(Loss) 감소를 경험적으로 모델링. |
| Brown et al. (2020) | 경험적 분석 | GPT-3를 통해 대규모 모델의 스케일링 법칙을 실제로 증명. |
| Henighan et al. (2020) | 경험적 분석 | 다양한 조건에서 스케일링 법칙이 깨지는 현상(break)을 관찰. |
| Hoffmann et al. (2022) | 경험적 분석 | (Chinchilla) 최적의 성능을 위해 모델과 데이터 크기를 비례적으로 확장해야 함을 제시. |
이 논문은 위 연구들과 궤를 달리합니다. 경험적 결과를 설명하는 이론을 제시하는 것을 넘어, 데이터의 통계적 특성에서 직접 스케일링 법칙을 유도하는 최초의 시도라는 점에서 독보적인 위치를 차지합니다.
핵심 기여
- 스케일링 법칙의 이론적 유도: LLM의 데이터 스케일링 법칙을 자연어의 통계적 특성만으로 유도하는 최초의 이론적 프레임워크를 제시했습니다.
- 데이터 제한 상황의 정량적 예측: 모델 크기가 충분할 때, 데이터 양에 따른 성능 향상률을 정량적으로 예측하는 공식을 제안합니다. 이는 데이터의 '질'이나 '학습 용이성'을 측정하는 새로운 척도가 될 수 있습니다.
- 자유 매개변수 없는 예측 (Free-parameter-free prediction): 기존 경험적 모델처럼 과거 학습 결과에 곡선을 피팅(fitting)하는 방식이 아닙니다. 순수하게 데이터의 통계량()만으로 미래의 학습 결과를 예측하여 높은 정확도를 보였습니다.
제안 방법론
핵심 아이디어와 이론적 근거
논문은 자연어에 존재하는 두 가지 보편적인 통계 법칙에 주목합니다.
- 토큰 간 상관관계 감소 (Power-law decay of token-token correlations): 텍스트에서 두 토큰 사이의 거리가 멀어질수록 통계적 상관관계(예: 상호 정보량)는 멱법칙(power-law)을 따라 감소합니다. "왕" 바로 뒤에는 "여왕"이 나올 확률이 높지만, 1000단어 뒤에는 거의 아무런 관련이 없는 것과 같습니다.
- 조건부 엔트로피 감소 (Power-law decay of conditional entropy): 다음 토큰을 예측할 때의 불확실성(엔트로피)은, 주어지는 문맥(context)의 길이가 길어질수록 멱법칙을 따라 감소합니다. "고양이가" 다음 단어를 예측하는 것보다 "고양이가 소파 위에서" 다음 단어를 예측하는 것이 더 쉬운(불확실성이 낮은) 원리입니다.
이 두 가지 통계적 특성은 각각 지수 와 로 정량화할 수 있습니다. 논문은 이 두 지수를 조합하여 데이터 양()에 따른 모델의 손실() 감소율, 즉 **데이터 스케일링 지수 **를 예측합니다.
핵심 수식
논문의 이론은 다음 세 가지 핵심 수식으로 요약됩니다.
-
토큰-토큰 상관관계 감소: 여기서 은 개의 토큰만큼 떨어진 두 토큰 간의 상관관계이며, 는 상관관계가 감소하는 속도를 나타내는 지수입니다.
-
다음 토큰 조건부 엔트로피 감소: 여기서 은 길이 의 문맥이 주어졌을 때 다음 토큰의 엔트로피(불확실성)이고, 는 무한한 문맥이 주어졌을 때의 엔트로피입니다. 는 문맥이 길어질수록 불확실성이 감소하는 속도를 나타냅니다.
-
데이터 제한 스케일링 지수 예측: 이것이 논문의 핵심 결과입니다. 데이터 양()에 따라 모델의 손실이 형태로 감소하는데, 이 지수 를 데이터의 통계적 특성인 와 만으로 예측할 수 있다는 의미입니다.
이론의 흐름을 간단히 요약하면 다음과 같습니다.
- 분석할 텍스트 코퍼스에서 와 를 통계적으로 측정합니다.
- 측정한 값을 공식에 대입하여 스케일링 지수를 계산합니다.
- 이 값이 실제 LLM을 해당 코퍼스로 학습시켰을 때 관찰되는 성능 향상 지수와 일치하는지 확인합니다.
실험 설정
데이터셋
이론을 검증하기 위해 성격이 다른 두 데이터셋을 사용했습니다.
- TinyStories: 문법은 완벽하지만 어휘와 개념이 매우 제한적인 소규모 합성 데이터셋. 통계적 구조가 단순하여 이론을 테스트하기 좋은 '통제된 환경' 역할을 합니다.
- WikiText-103: 실제 세계의 다양하고 복잡한 텍스트를 포함하는 표준 벤치마크. 이론이 '현실 세계'에서도 작동하는지 검증하는 역할을 합니다.
평가 지표
- 자동회귀 손실 (Autoregressive Loss, ): 모델의 주된 성능 지표로, 다음 토큰 예측의 정확도를 나타냅니다.
- n-그램 손실 (n-gram Loss): 이론적 예측과 직접적으로 비교하기 위해 사용된 보조 지표입니다.
베이스라인
GPT-2 및 LLaMA 아키텍처 기반의 트랜스포머 모델을 다양한 크기(파라미터 수)로 구성하여 실험했습니다. 이는 이론이 특정 모델에 국한되지 않음을 보여주기 위함입니다.
하이퍼파라미터 (예시)
| 하이퍼파라미터 | 값 | 비고 |
|---|---|---|
| 옵티마이저 | AdamW | 표준적인 LLM 학습 옵티마이저 |
| 학습률 | 1e-3 | 일반적인 설정 |
| 배치 크기 | 32 | 실험 환경에 따라 조정 |
| 드롭아웃 | 0.1 | 과적합 방지를 위한 정규화 |
실험 결과 분석
주요 결과
실험 결과는 이론적 예측과 실제 측정값이 놀라울 정도로 일치함을 보여주었습니다.
| 데이터셋 | 모델 | 측정된 (실험값) | 예측된 (이론값) | 예측 오차 |
|---|---|---|---|---|
| TinyStories | GPT-2 | 0.72 | 0.75 | 4.2% |
| WikiText-103 | LLaMA | 0.68 | 0.70 | 2.9% |
논문의 그래프를 보면, 데이터셋 크기를 늘려가며 훈련시킨 모델의 손실이 로그-로그(log-log) 스케일에서 거의 완벽한 직선을 그리는 것을 확인할 수 있습니다. 그리고 이 직선의 기울기가 바로 이론적으로 예측한 값과 거의 일치했습니다. 이는 데이터의 미시적 통계 구조가 모델의 거시적 학습 동역학을 결정한다는 강력한 증거입니다.
Ablation Study 분석
모델 크기, 아키텍처(GPT-2 vs LLaMA), 하이퍼파라미터 등을 변경하며 실험을 반복해도 데이터 스케일링 지수 는 거의 변하지 않았습니다. 이는 가 모델의 특성이 아닌 데이터셋 자체의 고유한 특성임을 뒷받침합니다.
비판적 평가
강점
- 획기적인 이론적 기여: 경험에만 의존하던 스케일링 법칙 연구에 견고한 이론적 토대를 마련했습니다.
- 강력한 실험적 검증: 통제된 환경(TinyStories)과 실제 데이터(WikiText-103) 모두에서 이론의 예측력이 매우 높음을 입증했습니다.
- 자원 효율성 증대: 모델을 훈련하기 전에 데이터셋의 잠재적 성능을 예측할 수 있습니다. 이는 어떤 데이터로 훈련하는 것이 더 효율적일지 판단하는 데 도움을 주어 막대한 컴퓨팅 자원을 절약할 수 있습니다.
한계점과 개선 방향
- 이상적인 모델 가정: 이 이론은 파라미터가 충분히 많고 최적화가 잘 된 '이상적인' 모델을 가정합니다. 실제로는 모델 아키텍처나 최적화 방법이 성능에 미치는 영향을 완전히 배제할 수는 없습니다.
- 데이터 다양성: 영어 텍스트 데이터셋 위주로 검증되었습니다. 다양한 언어, 코드, 이미지 등 다른 모달리티의 데이터에서도 이 법칙이 성립하는지에 대한 추가 연구가 필요합니다.
- 통계량 측정의 복잡성: 와 를 대규모 코퍼스에서 정확하게 측정하는 것은 그 자체로 계산 비용이 드는 작업일 수 있습니다.
향후 연구 방향
- 다양한 데이터 모달리티로 확장: 텍스트를 넘어 코드, 이미지, 음성 데이터의 통계적 특성을 분석하고 스케일링 법칙을 유도하는 연구로 확장될 수 있습니다.
- 데이터 품질과의 연관성 분석: 이 이론을 활용하여 '좋은 데이터'란 무엇인지 정량적으로 정의하고, 데이터 선별(curation) 및 생성 전략에 활용할 수 있습니다.
- 모델 아키텍처의 영향 통합: 현재 이론에서 배제된 모델 아키텍처의 영향을 통합하여, 데이터와 모델의 상호작용을 더 포괄적으로 설명하는 스케일링 법칙을 개발할 수 있습니다.
실무 적용 가이드
이 논문의 아이디어는 LLM 개발 실무에 다음과 같이 적용해볼 수 있습니다.
시나리오: 당신은 두 개의 대규모 사내 데이터셋(A: 고객 문의 기록, B: 내부 기술 문서)을 가지고 있습니다. 둘 중 어떤 데이터셋이 LLM 파인튜닝에 더 효과적일지 최소한의 비용으로 판단하고 싶습니다.
적용 방안:
- 통계 지표 측정: 두 데이터셋 A와 B에 대해 각각 토큰 간 상관관계 감소율()과 조건부 엔트로피 감소율()을 계산합니다.
- 스케일링 지수 예측: 와 를 계산합니다.
- 의사결정: 예측된 스케일링 지수 가 더 큰 데이터셋이 데이터 양 증가에 따른 성능 향상 기대치가 더 높다고 판단할 수 있습니다. 예를 들어 라면, 데이터셋 A가 더 '학습 효율이 좋은' 데이터일 가능성이 높습니다.
구현 팁 (개념적 코드): 와 를 직접 측정하는 것은 복잡하지만, 개념적으로는 다음과 같은 아이디어를 코드로 구현해볼 수 있습니다.
import numpy as np
from scipy.stats import entropy
# 가상의 토큰 시퀀스
tokens = np.random.randint(0, 50000, size=1000000)
def estimate_gamma(tokens, max_context_len=100):
"""
문맥 길이에 따른 조건부 엔트로피 감소율(gamma)을 대략적으로 추정하는 함수 (개념적 예시)
"""
entropies = []
context_lengths = range(1, max_context_len + 1)
for n in context_lengths:
# 길이 n의 문맥 뒤에 오는 토큰들의 분포를 계산
# 실제로는 매우 복잡한 작업
# ... H_n 계산 ...
# 여기서는 임의의 감소하는 값을 예시로 사용
H_n = 5.0 * (n ** -0.1)
entropies.append(H_n)
# log-log 스케일에서 기울기(gamma)를 찾음
log_n = np.log(context_lengths)
log_H = np.log(entropies)
gamma, _ = np.polyfit(log_n, log_H, 1)
return -gamma # 기울기는 음수이므로 양수로 변환
# gamma_estimate = estimate_gamma(tokens)
# print(f"Estimated gamma: {gamma_estimate:.2f}")
# (주의: 위 코드는 실제 구현이 아닌 개념 설명을 위한 의사 코드입니다.)
실제 구현 시에는 상호 정보량(Mutual Information)이나 엔트로피를 효율적으로 계산하기 위한 전문적인 라이브러리와 통계적 기법이 필요합니다.
결론
이 연구는 LLM 스케일링 법칙을 '경험의 영역'에서 '이론의 영역'으로 끌어올린 기념비적인 성과입니다. 자연어의 통계적 구조와 신경망의 학습 동역학 사이에 깊은 수학적 연결고리가 있음을 증명함으로써, 우리는 LLM의 작동 원리를 더 근본적으로 이해하게 되었습니다. 이는 단순히 학문적 호기심을 넘어, 더 효율적인 데이터셋을 구축하고, 모델의 성능 한계를 예측하며, 궁극적으로는 더 지능적인 AI를 만드는 데 중요한 이정표가 될 것입니다.
참고 자료
- 논문 원본: Jelassi, S., d'Ascoli, S., et al. (2024). Deriving Neural Scaling Laws from the statistics of natural language. arXiv:2402.07488. (https://arxiv.org/abs/2402.07488)

![[논문 리뷰] Deriving Neural Scaling Laws from the statistics of natural language](/assets/images/blog/20260213-paper-2602-07488-deriving-neural-scaling-laws-f.jpg)