[논문 리뷰] LLM2Vec-Gen: LLM이 생성한 '응답'으로 만드는 차세대 텍스트 임베딩
TL;DR
최근 대규모 언어 모델(LLM)은 텍스트 임베딩 분야에서 큰 잠재력을 보였지만, 다양한 입력 텍스트의 의미를 일관된 벡터로 표현하는 데는 여전히 어려움이 있었습니다. "LLM2Vec-Gen: Generative Embeddings from Large Language Models" 논문은 이 문제를 해결하기 위해 '응답 중심(response-centric)' 패러다임을 제안합니다. 이 방법은 입력 텍스트를 직접 인코딩하는 대신, LLM이 해당 입력에 대해 생성할 잠재적 응답을 임베딩으로 변환합니다. 그 결과, MTEB 벤치마크에서 최고 수준의 성능을 달성했으며, 특히 유해 콘텐츠 필터링과 같은 안전성 및 추론 능력에서 큰 향상을 보였습니다. LLM2Vec-Gen은 별도의 레이블링된 데이터 없이도 고성능 임베딩을 생성할 수 있는 새로운 길을 제시합니다.
연구 배경 및 동기
텍스트 임베딩은 자연어 처리(NLP)의 핵심 기술로, 검색, 분류, 클러스터링 등 다양한 응용 분야의 기반이 됩니다. 전통적인 임베딩 모델은 **입력 중심 패러다임(input-centric paradigm)**에 따라 입력 텍스트의 의미를 직접 벡터로 인코딩합니다.
하지만 이 방식은 '입력-출력 격차(input-output gap)'라는 한계를 가집니다. 예를 들어, "정치적 시위에 대한 보수 매체의 뉴스 기사"와 "동일한 시위에 대한 진보 매체의 뉴스 기사"를 생각해 봅시다. 두 기사는 사용된 어휘나 논조가 완전히 다르지만, '정치적 시위'라는 동일한 주제로 분류되어야 합니다. 입력 중심 모델은 이처럼 표면적으로 다른 두 입력을 유사한 벡터로 매핑하는 데 어려움을 겪습니다.
LLM2Vec-Gen은 이 문제를 해결하기 위해 패러다임을 전환합니다. 입력 텍스트 자체를 임베딩하는 대신, "이 텍스트에 대해 LLM이 어떤 응답을 생성할 것인가?"에 초점을 맞추는 **응답 중심 패러다임(response-centric paradigm)**을 도입합니다. 이 접근법은 LLM의 깊은 문맥 이해, 추론 능력, 그리고 안전성 가이드라인까지 임베딩에 자연스럽게 녹여낼 수 있게 합니다.
관련 연구
텍스트 임베딩 기술은 Word2Vec부터 BERT, SimCSE에 이르기까지 꾸준히 발전해 왔습니다. 각 연구는 단어 수준에서 문장, 문맥 수준으로 의미를 포착하는 능력을 향상시켜 왔습니다.
| 연구 | 접근법 | 패러다임 | 주요 특징 |
|---|---|---|---|
| Word2Vec/GloVe | 단어 빈도/통계 기반 | 입력 중심 | 단어 간 의미적 관계를 벡터 공간에 표현 |
| BERT | Masked Language Model | 입력 중심 | 양방향 문맥을 고려한 깊은 언어 표현 |
| GPT | Autoregressive Model | 입력 중심 | 단방향 문맥 기반의 생성 및 표현 능력 |
| SimCSE | 대조 학습 (Contrastive) | 입력 중심 | 같은 문장을 다르게 dropout하여 긍정 쌍으로 학습 |
| LLM2Vec-Gen | 생성적 응답 기반 | 응답 중심 | 입력-출력 격차 해소, LLM 능력 전이 |
기존 연구들이 입력 텍스트의 의미를 어떻게 더 잘 '압축'할지에 집중했다면, LLM2Vec-Gen은 LLM의 '생성 능력'을 활용하여 임베딩의 새로운 가능성을 탐색한다는 점에서 근본적인 차이를 보입니다.
핵심 기여
-
응답 중심 패러다임 제안: 입력이 아닌 LLM의 잠재적 응답을 임베딩하는 새로운 접근법을 제시하여, 입력-출력 격차를 해소하고 LLM의 고차원적 능력을 임베딩에 전이했습니다.
-
자기 지도 학습 프레임워크 개발: 레이블이 없는 대규모 쿼리 데이터만으로 학습 가능한 프레임워크를 개발하여, 데이터 구축 비용 없이도 고성능 임베딩 모델을 만들 수 있게 했습니다.
-
안전성 및 추론 능력 대폭 향상: 유해 콘텐츠 검색을 최대 43.2% 감소시키고, 복잡한 추론이 필요한 검색 작업에서 성능을 최대 29.3% 향상시켜, LLM의 장점을 임베딩에 성공적으로 이식했습니다.
-
해석 가능한 임베딩: 학습된 임베딩을 다시 텍스트로 디코딩할 수 있음을 보였습니다. 예를 들어, '한국 최고의 등산로'라는 쿼리에 대한 임베딩은 '설악산, 지리산 등 한국에는 아름다운 경치를 자랑하는 등산로가 많습니다.'와 같은 요약 응답으로 디코딩될 수 있습니다. 이는 임베딩이 LLM의 응답 내용을 의미적으로 포착하고 있음을 증명합니다.
제안 방법론
LLM2Vec-Gen은 3단계의 자기 지도 학습 과정을 통해 LLM의 생성 능력을 임베딩으로 증류합니다. 이 과정에서 기반 LLM의 가중치는 고정(frozen)시키고, 소수의 파라미터만 학습하여 효율성을 높입니다.
(이미지 출처: 원본 논문)
1단계: 응답 생성 (Response Generation)
먼저, 레이블 없는 쿼리() 데이터셋에 대해 고정된 LLM(교사 모델)을 사용하여 가상의 응답()을 생성합니다.
- 예: = "파이썬에서 리스트를 정렬하는 방법은?"
- 예: = "파이썬에서 리스트를 정렬하려면
sort()메서드나sorted()함수를 사용할 수 있습니다.sort()는 원본 리스트를 직접 수정하고..."
2단계: 임베딩 추출 (Embedding Extraction)
쿼리() 뒤에 학습 가능한 특수 토큰 [C1]...[Cn]을 추가하여 동일한 LLM에 입력합니다. 이 특수 토큰들의 마지막 레이어 은닉 상태(hidden states)를 추출하고, 이를 경량 프로젝션 레이어(lightweight projection layer)에 통과시켜 최종 임베딩()을 얻습니다.
3단계: 학습 (Training)
두 가지 목적 함수를 사용하여 특수 토큰과 프로젝션 레이어를 학습시킵니다.
-
응답 재구성 (Response Reconstruction): 2단계에서 얻은 특수 토큰의 은닉 상태를 '소프트 프롬프트(soft prompt)'로 사용하여, 고정된 LLM이 1단계에서 생성했던 응답()을 다시 생성하도록 학습합니다. 이는 임베딩이 응답의 핵심 정보를 충분히 담도록 강제하는 역할을 합니다.
-
임베딩 정렬 (Embedding Alignment): LLM2Vec-Gen이 생성한 임베딩()이, 외부의 강력한 임베딩 모델(예: SimCSE)로 생성한 응답의 임베딩()과 유사해지도록 학습합니다. 이는 임베딩이 의미적으로 잘 정돈된 공간에 위치하도록 유도합니다.
핵심 수식
LLM2Vec-Gen의 전체 손실 함수는 재구성 손실과 정렬 손실의 합으로 구성됩니다.
-
재구성 손실 (Reconstruction Loss, ): 이 수식은 특수 토큰의 은닉 상태 표현()을 조건으로 하여, 실제 응답 토큰()이 나타날 로그 확률을 최대화합니다. 즉, 표준적인 자기회귀 언어 모델의 손실 함수입니다.
-
정렬 손실 (Alignment Loss, ): 이 수식은 교사 임베딩 모델이 생성한 응답 임베딩()과 LLM2Vec-Gen이 생성한 임베딩() 간의 평균 제곱 오차(Mean Squared Error)를 최소화합니다.
-
최종 손실 (Final Loss, ): 두 손실을 가중치()를 두어 결합하고 동시에 최적화합니다.
실험 설정
모델의 성능은 MTEB(Massive Text Embedding Benchmark)을 포함한 여러 벤치마크에서 평가되었습니다. 안전성 평가는 AdvBench-IR, 추론 능력 평가는 BRIGHT 벤치마크를 활용했습니다.
- 데이터셋: MTEB, AdvBench-IR, BRIGHT 등
- 평가 지표: MTEB 평균 점수, 유해 콘텐츠 검색 비율, 추론 기반 검색 정확도
- 기반 모델: Llama-2-7B, Qwen1.5-4B 등
- 학습 파라미터: 약 1,300만 개 (Qwen1.5-4B 기준, 전체 LLM 파라미터의 0.3% 미만)
실험 결과 분석
LLM2Vec-Gen은 다양한 벤치마크에서 기존 비지도 임베딩 모델의 성능을 크게 뛰어넘었습니다.
주요 결과
| 벤치마크 | 성능 지표 | 결과 |
|---|---|---|
| MTEB | 평균 점수 | 최대 9.3% 향상 |
| AdvBench-IR | 유해 콘텐츠 검색 비율 | 최대 43.2% 감소 |
| BRIGHT | 추론 기반 검색 정확도 | 최대 29.3% 향상 |
특히 입력과 출력의 의미적 괴리가 큰 클러스터링, 분류, 의미론적 텍스트 유사도(STS) 과제에서 두드러진 성능 향상을 보였습니다. 이는 응답 중심 패러다임이 입력-출력 격차를 효과적으로 해소했음을 시사합니다.
안전성 측면에서도, "폭탄 만드는 법"과 같은 악의적인 쿼리에 대해 LLM은 "도와줄 수 없습니다"와 같은 안전한 응답을 생성합니다. LLM2Vec-Gen은 이 '안전한 응답'을 임베딩하므로, 유해한 콘텐츠 대신 안전하거나 관련 없는 문서를 검색하게 되어 유해 콘텐츠 노출을 크게 줄입니다.
Ablation Study
재구성 손실()과 정렬 손실()의 역할을 분석한 결과, 두 손실이 모두 중요함을 확인했습니다.
- 만 사용 시: 검색 성능은 높았지만, 임베딩을 디코딩하면 의미 없는 텍스트가 생성되어 해석 가능성을 잃었습니다.
- 만 사용 시: 해석 가능성은 확보되었지만, 검색 성능이 저하되었습니다.
- 둘 다 사용 시: 높은 성능과 해석 가능성을 모두 달성하여, 임베딩이 LLM의 유용한 응답 내용을 포착하고 있음을 증명했습니다.
비판적 평가
강점
- 패러다임 전환: 응답 중심 접근법으로 기존 임베딩의 한계를 돌파했습니다.
- LLM 능력의 성공적 전이: LLM의 안전성, 추론 능력 등 고차원적 특성을 임베딩에 효과적으로 이식했습니다.
- 데이터 효율성: 레이블 없는 데이터만으로 학습이 가능하여 실용성이 높습니다.
한계점과 개선 방향
- 지도 학습 교사 모델과의 불일치: 지도 학습 데이터로 미세 조정된 임베딩 모델을 교사로 사용했을 때, 비지도 모델을 사용했을 때만큼의 성능 향상은 없었습니다. 저자들은 이를 지도 학습 인코더가 '의미적 내용'보다는 쿼리와 문서 간의 '상대적 관련성'에 더 최적화되어 있기 때문이라고 분석합니다.
- 생성 비용: 학습 데이터 구축을 위해 초기에 LLM으로 대량의 응답을 생성해야 하므로, 컴퓨팅 비용이 발생할 수 있습니다.
향후 연구 방향
- 완전한 자기 교사(Self-Teacher) 모델: 외부 교사 임베딩 모델 없이, 동결된 LLM 자체가 생성과 인코딩 교사 역할을 모두 수행하여 외부 의존성을 제거하는 방안을 탐구할 수 있습니다. 이는 JEPA(Joint-Embedding Predictive Architecture)와 유사한 구조로 발전할 수 있습니다.
- 잠재 공간 체이닝 (Latent Chaining): 생성된 임베딩을 다시 LLM의 입력으로 사용하여, 여러 단계의 추론을 텍스트 생성 없이 잠재 공간에서 빠르게 수행하는 연구로 확장될 수 있습니다.
- 에이전트 간 잠재 공간 통신: LLM 기반 에이전트들이 장황한 텍스트 대신 압축된 임베딩으로 소통하여 통신 효율을 극대화하는 데 활용될 수 있습니다.
실무 적용 가이드
- 도메인 특화 임베딩: 특정 도메인(예: 법률, 의료)의 레이블 없는 쿼리 데이터로 LLM2Vec-Gen을 학습시키면, 해당 도메인에 특화된 고품질 임베딩을 손쉽게 구축할 수 있습니다.
- 안전한 검색 시스템 구축: 유해 콘텐츠 필터링이 중요한 서비스에서 LLM2Vec-Gen을 활용하면, LLM의 안전 장치를 검색 시스템에 자연스럽게 통합할 수 있습니다.
- 하드웨어 요구사항: 기반 LLM을 메모리에 로드해야 하므로, 추론 및 학습 시 충분한 VRAM을 갖춘 GPU가 필요합니다. 하지만 학습 파라미터 수가 적어 학습 자체는 효율적입니다.
결론
LLM2Vec-Gen은 텍스트 임베딩의 패러다임을 '입력'에서 '응답'으로 전환함으로써, LLM 시대에 걸맞은 새로운 임베딩 생성 방법을 제시했습니다. 이 연구는 LLM의 깊은 이해력과 안전성을 임베딩에 효과적으로 전이시킬 수 있음을 보여주었으며, 레이블 없는 데이터 환경에서의 높은 잠재력 덕분에 다양한 NLP 응용 분야에 큰 영향을 미칠 것으로 기대됩니다.
참고 자료
- 논문 링크: arXiv:2403.10913
- 코드 저장소: McGill-NLP/llm2vec-gen
- 관련 자료: Massive Text Embedding Benchmark (MTEB)

![[논문 리뷰] LLM2Vec-Gen: Generative Embeddings from Large Language Models](/assets/images/blog/20260314-paper-2603-10913-llm2vec-gen-generative-embeddi.jpg)