[논문 리뷰] LLM2Vec-Gen: LLM이 생성하는 응답으로 만드는 차세대 임베딩
TL;DR
LLM2Vec-Gen은 대규모 언어 모델(LLM)을 활용한 새로운 텍스트 임베딩 방법론입니다. 기존 모델들이 입력 텍스트 자체를 임베딩하던 것과 달리, LLM이 해당 입력에 대해 생성할 법한 '잠재적 응답'을 임베딩하는 혁신적인 패러다임을 제시합니다. 이 "응답 중심" 접근법은 의미는 같지만 표현이 다른 여러 입력을 일관된 임베딩으로 매핑하여 '입력-출력 격차' 문제를 해결합니다. 또한, 별도의 레이블 없이 자기 지도 학습(self-supervised learning)만으로 LLM의 안전성 및 추론 능력을 임베딩에 자연스럽게 이전시킵니다. 그 결과 MTEB 벤치마크에서 SOTA를 달성하고, 유해 콘텐츠 검색을 줄이며, 복잡한 추론 태스크 성능을 크게 향상시켰습니다. 무엇보다 임베딩을 다시 텍스트로 변환할 수 있어 해석 가능성까지 확보했습니다.
연구 배경 및 동기
텍스트 임베딩은 자연어 처리(NLP)의 근간 기술로, 텍스트를 의미를 담은 벡터로 변환합니다. 기존의 임베딩 모델들은 주로 입력 텍스트의 의미를 직접 인코딩하는 '입력 중심' 방식으로 작동합니다. 하지만 이 방식은 입력-출력 격차(Input-Output Gap) 라는 고질적인 문제를 안고 있습니다.
입력-출력 격차란, 표현은 다르지만 의미적으로 같은 결과를 가져야 하는 다양한 입력들을 하나의 일관된 벡터로 매핑하기 어려운 현상을 말합니다. 예를 들어, "화가 난다"와 "열받는다"는 다른 단어로 구성되어 있지만, 같은 '분노'라는 감정을 나타내므로 유사한 임베딩을 가져야 합니다. 입력 중심 모델은 이 둘의 토큰이 다르기 때문에, 이들이 같은 의미라는 것을 배우려면 방대한 양의 레이블된 데이터(e.g., ("화가 난다", "분노"), ("열받는다", "분노"))와 대조 학습(contrastive learning)이 필요합니다.
LLM2Vec-Gen은 이 문제를 해결하기 위해 관점을 전환합니다. LLM에게 "화가 난다"와 "열받는다"를 각각 입력하면, "많이 화나셨군요. 도움이 필요하신가요?"와 같은 유사한 응답을 생성할 가능성이 높습니다. 그렇다면 이 '응답'을 임베딩하면 어떨까? 라는 아이디어가 바로 LLM2Vec-Gen의 출발점입니다. 이 "응답 중심" 접근법은 LLM의 생성 능력을 활용하여 레이블 없이도 입력-출력 격차를 해소하고, LLM이 가진 안전성, 추론 능력과 같은 고차원적인 특징을 임베딩에 자연스럽게 녹여냅니다.
관련 연구
텍스트 임베딩 분야는 Word2Vec, GloVe와 같은 단어 수준 임베딩에서 BERT, GPT와 같은 문맥 기반 임베딩으로 발전해왔습니다. 하지만 대부분의 모델은 입력 텍스트를 직접 인코딩하는 방식을 따르므로 입력-출력 격차 문제에서 자유롭지 못했습니다. LLM2Vec-Gen은 LLM의 '잠재적 응답'을 임베딩의 대상으로 삼는다는 점에서 기존 연구들과 근본적인 차이를 보입니다.
| 연구 | 접근법 | 주요 한계 | LLM2Vec-Gen과의 차별점 |
|---|---|---|---|
| Word2Vec/GloVe | 단어 수준, 통계 기반 임베딩 | 문맥 정보 부족, 동음이의어 처리 불가 | LLM의 응답을 기반으로 풍부한 문맥과 의미 포착 |
| BERT 계열 | 문맥 기반 인코딩 (입력 중심) | 입력-출력 격차 존재, 대규모 레이블 데이터 필요 | 응답 중심으로 격차를 해소하고 자기 지도 학습 수행 |
| GPT 계열 | 생성 모델 기반 인코딩 (입력 중심) | 임베딩 자체보다 생성에 초점, 입력-출력 격차 존재 | LLM의 '생성 결과물(응답)'을 임베딩으로 직접 활용 |
핵심 기여
- 응답 중심 패러다임 제안: 입력이 아닌 LLM의 '잠재적 응답'을 임베딩하여, 표현이 달라도 의미가 같은 입력들을 자연스럽게 동일한 벡터 공간으로 매핑함으로써 입력-출력 격차를 해소했습니다.
- 효율적인 자기 지도 학습: 레이블이 없는 대규모 쿼리 데이터만으로 모델을 학습시켜, 데이터 구축 비용과 시간을 획기적으로 줄였습니다.
- LLM의 고급 기능 이전: LLM의 안전성(safety alignment), 다단계 추론(multi-hop reasoning) 능력 등을 임베딩에 성공적으로 이전하여, 임베딩의 성능과 신뢰도를 동시에 높였습니다.
- 해석 가능한 임베딩: 생성된 임베딩 벡터를 다시 LLM에 입력하면, 해당 임베딩이 어떤 의미(응답 텍스트)를 나타내는지 디코딩할 수 있어, 임베딩의 '속'을 들여다볼 수 있습니다.
제안 방법론
LLM2Vec-Gen은 기반 LLM의 가중치는 그대로 둔 채(frozen), 일부 경량 모듈만 학습시켜 효율성을 극대화합니다. 핵심은 LLM이 생성할 응답을 대표하는 압축된 표현(임베딩)을 학습하는 것입니다.
핵심 아이디어: 응답을 임베딩하다
LLM2Vec-Gen의 철학은 "쿼리에 대한 가장 좋은 임베딩은 그 쿼리에 대한 LLM의 이상적인 응답을 압축한 것"이라는 문장으로 요약할 수 있습니다. LLM의 응답은 단순한 쿼리의 재표현을 넘어, 쿼리의 의도를 파악하고, 배경지식을 활용하며, 추론을 거친 결과물입니다. 따라서 이 응답을 임베딩하면 쿼리 자체를 임베딩하는 것보다 훨씬 풍부하고 정제된 의미 정보를 담을 수 있습니다.
모델 아키텍처 및 학습 과정
학습 과정은 다음과 같은 단계로 이루어집니다.
-
데이터 준비: 레이블이 없는 대규모 쿼리() 데이터셋을 준비합니다. 이 쿼리들을 기반 LLM에 입력하여 각 쿼리에 대한 응답()을 생성해
(쿼리, 응답)쌍을 만듭니다. -
교사 임베딩 생성: 미리 학습된 강력한 비지도 임베딩 모델(예: E5, GTE)을 '교사(teacher)'로 사용합니다. 이 교사 모델로 1번 단계에서 생성된 응답()의 임베딩()을 추출합니다. 이 가 우리 모델이 따라가야 할 목표 임베딩이 됩니다.
-
모델 구성: 기반 LLM의 어휘에 학습 가능한 N개의 새로운 **특수 토큰(special tokens)**을 추가합니다. 이 토큰들은 모든 입력 쿼리 뒤에 접두사처럼 붙여집니다. 이 특수 토큰들의 은닉 상태(hidden states)가 최종 임베딩을 생성하는 데 사용됩니다.
-
자기 지도 학습: 기반 LLM의 가중치는 동결하고, 오직 특수 토큰과 경량 프로젝션 레이어만 학습합니다. 학습 목표는 두 가지 손실 함수를 동시에 최소화하는 것입니다.
-
응답 재구성 손실 (Reconstruction Loss, ): 특수 토큰의 임베딩을 조건으로 주었을 때, LLM이 원래 생성했던 응답()을 다시 잘 생성하도록 학습합니다. 이는 특수 토큰이 응답의 핵심 정보를 충분히 압축하도록 강제하는 역할을 합니다. (는 번째 쿼리에 대한 특수 토큰 임베딩)
-
임베딩 정렬 손실 (Alignment Loss, ): 특수 토큰의 은닉 상태를 프로젝션 레이어에 통과시켜 얻은 최종 임베딩()이, 2번 단계에서 교사 모델이 만든 목표 응답 임베딩()과 최대한 유사해지도록 학습합니다. L2 거리(유클리드 거리)를 사용하여 두 벡터의 차이를 줄입니다.
최종 손실 함수: (여기서 는 두 손실의 가중치를 조절하는 하이퍼파라미터)
-
추론 과정
학습이 완료되면 추론은 매우 빠르고 간단합니다. 새로운 쿼리가 들어오면, 쿼리 뒤에 학습된 특수 토큰을 붙여 LLM에 **단 한 번만 통과(single forward pass)**시킵니다. 이후 특수 토큰 위치의 마지막 은닉 상태를 프로젝션 레이어에 통과시키면 최종 임베딩이 즉시 계산됩니다. 응답을 실제로 생성(auto-regressive decoding)할 필요가 없어 매우 효율적입니다.
# 의사 코드 (Pseudo-code) for Inference
query = "오늘 날씨 어때?"
# 학습된 특수 토큰을 쿼리 앞에 추가
input_text = "[GEN_EMBED_TOKEN_1]...[GEN_EMBED_TOKEN_N]" + query
# LLM에 단 한 번 통과
outputs = llm(input_text)
# 특수 토큰 위치의 은닉 상태 추출
special_token_hidden_states = outputs.hidden_states[:, :N, :]
# 프로젝션 레이어를 통과시켜 최종 임베딩 획득
embedding = projection_layer(special_token_hidden_states.mean(dim=1))
실험 설정
LLM2Vec-Gen의 성능은 다양한 표준 벤치마크를 통해 검증되었습니다.
- 데이터셋:
- MTEB (Massive Text Embedding Benchmark): 검색, 분류, 군집화 등 56개 태스크를 포함하는 포괄적인 임베딩 평가 벤치마크.
- AdvBench-IR: 유해하거나 편향된 콘텐츠 검색 성능을 평가하는 적대적 벤치마크.
- BRIGHT: 복잡한 다단계 추론이 필요한 검색 태스크를 평가하는 벤치마크.
- 평가 지표: 각 벤치마크의 표준 지표(정확도, nDCG@10, F1 Score 등)를 사용했으며, 특히 유해성 검색 감소율과 추론 능력 향상도를 중점적으로 분석했습니다.
- 베이스라인: SOTA 비지도 임베딩 모델(LLM2Vec, GTR 등) 및 일부 지도 학습 기반 모델과 성능을 비교했습니다.
- 기반 모델: Llama-2-7B, Mistral-7B 등 다양한 오픈소스 LLM을 기반으로 실험했습니다.
실험 결과 분석
LLM2Vec-Gen은 여러 벤치마크에서 기존 비지도 임베딩 모델들을 압도하는 성능을 보였습니다.
주요 결과 요약
| 벤치마크 | 기존 SOTA (비지도) | LLM2Vec-Gen | 성능 변화 | 비고 |
|---|---|---|---|---|
| MTEB (평균 점수) | 65.4 | 67.1 | +1.7 | 전반적인 임베딩 품질 대폭 향상 |
| AdvBench-IR | 56.8% | 32.3% | -43.2% | 유해 콘텐츠 검색 비율을 획기적으로 감소 |
| BRIGHT (평균 점수) | 70.7 | 91.4 | +29.3% | 복잡한 추론 기반 검색 능력 크게 향상 |
- MTEB: LLM2Vec-Gen은 벤치마크 평균 점수에서 기존 비지도 SOTA 모델 대비 1.7점 높은 점수를 기록하며 전반적인 성능 우위를 입증했습니다.
- 안전성: AdvBench-IR에서 유해 콘텐츠 검색 비율을 최대 43.2%까지 감소시켰습니다. 이는 LLM의 안전성 정렬(safety alignment)이 임베딩에 성공적으로 이전되었음을 의미합니다.
- 추론 능력: BRIGHT 벤치마크에서는 성능이 29.3%나 향상되었습니다. 이는 LLM의 복잡한 추론 능력이 임베딩 공간에 효과적으로 전달되었음을 보여주는 강력한 증거입니다.
Ablation Study 분석
재구성 손실()과 정렬 손실()의 역할을 분석하기 위한 실험에서, 없이 만으로 학습한 모델은 임베딩을 디코딩했을 때 쿼리와 무관한 무의미한 텍스트를 생성했습니다. 반면, 두 손실을 함께 사용한 모델은 일관되고 의미 있는 응답을 생성했습니다. 이는 이 임베딩이 유의미한 정보를 담고 해석 가능성을 유지하는 데 결정적인 역할을 함을 시사합니다.
비판적 평가
강점
- 근본적인 문제 해결: '응답 중심'이라는 새로운 패러다임으로 '입력-출력 격차' 문제를 효과적으로 해결했습니다.
- 데이터 효율성: 레이블 없는 데이터만으로 학습이 가능해 실용성이 매우 높습니다.
- 고급 기능의 상속: LLM의 추론, 안전성과 같은 고급 인지 능력을 임베딩에 통합하여 단순한 의미적 유사성을 넘어선 고차원적인 임베딩을 생성합니다.
- 뛰어난 해석 가능성: 임베딩을 텍스트로 디코딩할 수 있어 모델의 작동 방식을 이해하고 디버깅하기 용이합니다.
한계점과 개선 방향
- LLM의 환각(Hallucination) 문제: 기반 LLM이 사실과 다른 응답을 생성하는 경향(환각)이 있다면, 이 오류가 임베딩에 그대로 반영될 수 있습니다. 응답 생성 단계에서 사실 검증(fact-checking) 메커니즘을 추가하는 연구가 필요합니다.
- 교사 모델에 대한 의존성: '교사' 임베딩 모델의 성능이 전체 결과에 영향을 미칩니다. 더 강력한 교사 모델을 사용하거나, 교사 모델 없이 학습하는 완전한 자기 지도 학습 방식에 대한 연구가 필요합니다.
재현성 평가
논문에서 기반 모델, 하이퍼파라미터, 학습 데이터 생성 과정을 상세히 기술하여 재현성은 높은 편입니다. 특히 오픈소스 LLM을 기반으로 하여 누구나 유사한 실험을 시도해볼 수 있습니다.
향후 연구 방향
- 완전한 자기 지도 학습 (JEPA 구조): 외부 교사 인코더 없이, 동결된 LLM 자체가 응답 생성(generator)과 임베딩 인코딩(encoder) 역할을 모두 수행하는 JEPA(Joint Embedding-and-Generation Paradigm) 구조를 구현하여 완전한 자기-지도 학습을 달성하는 연구.
- 초고속 추론을 위한 잠재적 체이닝: 생성된 압축 토큰(임베딩)을 다음 추론 단계의 입력으로 다시 사용하는 '잠재적 체이닝(latent chaining)'을 통해, 자동회귀 방식의 디코딩 없이 여러 단계의 추론을 초고속으로 수행하는 연구.
- 에이전트 간의 효율적인 소통: LLM 기반 에이전트들이 자연어 대신 정보 밀도가 높은 임베딩으로 소통하여 통신 비용을 줄이고, 필요시 디코딩을 통해 인간이 그 소통 내용을 감독할 수 있는 프레임워크 연구.
실무 적용 가이드
LLM2Vec-Gen을 실무에 적용할 때 다음 사항을 고려할 수 있습니다.
- 도메인 특화 임베딩 구축: 특정 도메인(법률, 의료 등)의 레이블 없는 대규모 문서로 쿼리-응답 쌍을 생성하여 학습시키면, 해당 도메인에 고도로 특화된 임베딩 모델을 손쉽게 구축할 수 있습니다.
- 안전한 검색 시스템: 유해성 필터링이 중요한 검색 엔진이나 챗봇 시스템에 적용 시, LLM의 안전성 정렬 능력을 활용하여 부적절한 검색 결과를 효과적으로 줄일 수 있습니다.
- 임베딩 기반의 시스템 디버깅: 검색 결과가 이상할 때, 쿼리와 문서의 임베딩을 디코딩하여 각각 "어떤 응답"을 의미하는지 확인함으로써 문제의 원인을 직관적으로 파악할 수 있습니다.
결론
LLM2Vec-Gen은 텍스트 임베딩 분야에 중요한 전환점을 제시합니다. '입력'이 아닌 '응답'에 집중하는 새로운 패러다임을 통해 기존 방법론들의 한계를 극복하고, LLM의 강력한 생성 및 추론 능력을 임베딩 공간으로 성공적으로 이전했습니다. 레이블 없이도 높은 성능과 해석 가능성을 동시에 달성한 이 방법론은, 앞으로 더욱 정교하고 신뢰할 수 있는 NLP 애플리케이션을 구축하는 데 핵심적인 역할을 할 것으로 기대됩니다.

![[논문 리뷰] LLM2Vec-Gen: Generative Embeddings from Large Language Models](/assets/images/blog/20260315-paper-2603-10913-llm2vec-gen-generative-embeddi.jpg)