* Latent Inter-User Difference Modeling for LLM Personalization (EMNLP 2025)

아래에서는 **EMNLP 2025 논문 “Latent Inter-User Difference Modeling for LLM Personalization”**을 중심으로 관련 연구, 방법론, 실험 결과를 연구 흐름 관점에서 정리해 설명합니다. (설명은 논문 전체 내용을 종합한 요약입니다) 


1. 관련 연구 (Related Work)

(1) LLM 개인화의 주류: Memory-Retrieval Paradigm

  • RAG / PAG 계열
    • RAG: 사용자의 과거 기록을 그대로 프롬프트에 삽입
    • PAG: 과거 기록을 요약(profile)해 프롬프트에 삽입
  • 장점: LLM 파라미터를 고정한 채 확장 가능
  • 한계:
    • 사용자 자신의 과거만 활용
    • “다른 사용자와 어떻게 다른가”라는 **상대적 차이(inter-user difference)**는 충분히 모델링하지 못함

(2) Inter-User Difference를 명시적으로 다룬 연구

  • DPL (Qiu et al., 2025)
    • 사용자 vs 타 사용자 행동을 자연어 비교로 요약
    • 심리학적 “uniqueness” 이론에 근거
  • 한계 (본 논문의 문제의식):
    • LLM이 자연어로 “차이”를 요약 → 통제 불가 / 누락 가능
    • 타 사용자 데이터를 포함한 프롬프트가 길어져 context window 부담

(3) Latent-Space Personalization

  • 최근 연구(PPlug, User-LLM 등):
    • 사용자 이력을 임베딩으로 변환 후 soft prompt로 주입
  • 한계:
    • 대부분 절대적 사용자 표현만 사용
    • “다른 사용자 대비 차이”를 구조적으로 표현하지 않음

–> 이 논문의 핵심 포지션

“Inter-user difference는 자연어가 아니라 latent embedding 공간에서 벡터 연산으로 모델링하는 것이 구조적으로 더 적합하다.”


2. 방법론 (Methodology)

논문은 DEP (Difference-aware Embedding-based Personalization) 프레임워크를 제안합니다.

전체 구조 개요

  1. User-specific embedding: 사용자의 절대적 선호
  2. Difference-aware embedding: 타 사용자 대비 상대적 차이
  3. **Sparse Autoencoder(SAE)**로 task-relevant feature만 추출
  4. 결과를 soft prompt 형태로 LLM에 주입 (LLM은 frozen)

2.1 Latent Inter-User Difference Modeling

(1) User-specific embedding

  • 사용자 u’가 아이템 i에 남긴 리뷰 yuiy^i_{u’}
  • 임베딩 모델로 변환: ehisi=femb(yui)e^i_{\text{his}} = f_{\text{emb}}(y^i_{u’})

→ “이 사용자는 이 아이템을 어떻게 보는가”

(2) Difference-aware embedding

  • 같은 아이템 i를 본 다른 사용자 u1,,umu_1, \dots, u_m
  • 각 리뷰 임베딩 eujie^i_{u_j} 계산
  • 차이 벡터 평균: ediffi=1mj=1m(ehisieuji)e^i_{\text{diff}} = \frac{1}{m}\sum_{j=1}^m (e^i_{\text{his}} – e^i_{u_j})

→ “이 사용자는 다른 사용자들과 무엇이 다른가

✔ 핵심 포인트

  • 자연어 비교 ❌
  • 벡터 차이 연산으로 inter-user difference를 직접 모델링

2.2 Sparse Autoencoder (Representation Distillation)

문제:

  • 임베딩에는 task-irrelevant / redundant 정보가 많음

해결:

  • SAE (ℓ1 sparsity) 적용
    • 중요한 latent feature만 활성화
    • 사용자 고유 선호 + 차이 신호를 압축

zhis=fenc(ehis),zdiff=fenc(ediff)z_{\text{his}} = f_{\text{enc}}(e_{\text{his}}), \quad z_{\text{diff}} = f_{\text{enc}}(e_{\text{diff}})

  • Reconstruction loss + sparsity KL loss로 학습

–> SAE는 단순 차원 축소가 아니라

“개인화에 필요한 latent factor 선택기” 역할


2.3 Soft Prompt Injection

  • SAE 출력 → projection layer → LLM embedding space
  • user-specific + difference-aware prompt를 함께 삽입
  • LLM 파라미터는 고정, SAE와 projection만 학습

최종 목적함수:

=gen+λ(recon+γsparse)\mathcal{L} = \mathcal{L}_{\text{gen}} + \lambda(\mathcal{L}_{\text{recon}} + \gamma \mathcal{L}_{\text{sparse}})


3. 실험 결과 (Experiments)

3.1 실험 설정

  • Task: Personalized Review Generation
  • Dataset: Amazon Reviews 2023 (Books / Movies & TV / CDs & Vinyl)
  • Backbone LLM: Qwen2.5-Instruct (7B, 32B)
  • Metrics: ROUGE-1, METEOR, BLEU, BERTScore

3.2 Main Results (Table 1)

핵심 결과

  • DEP가 모든 데이터셋 & 모든 지표에서 SOTA
  • 7B 모델임에도 32B 기반 기존 방법들보다 성능 우수

예시 (상대 개선):

  • BLEU: +82%
  • METEOR: +4%
  • BERTScore: +6%

–> 해석:

  • 단순 user embedding (PPlug) <
  • 자연어 inter-user 비교 (DPL) <
  • latent difference modeling + SAE (DEP)

3.3 Ablation Study

(1) User embedding 구성 (Table 2)

  • his_emb 단독 ✔
  • diff_emb 단독 ✔
  • his_emb + diff_emb (best)

→ 절대적 선호 + 상대적 차이는 보완적

(2) Representation Refinement (Table 3)

  • raw embedding ❌
  • standard AE △
  • SAE ✔ (항상 최고)

→ sparsity가 personalization에 핵심


3.4 Additional Analysis

(1) Retrieved history 수 (RQ3)

  • K=1만 있어도 큰 성능 점프
  • 이후는 diminishing return

(2) User Uniqueness (RQ4)

  • “독특한 사용자(Unique)”일수록 성능 향상 큼
  • DEP는 DPL보다 더 안정적이고 일관된 개선

4. 핵심 기여 요약

  • 자연어 기반 inter-user comparison → latent vector difference
  • difference-aware embedding이라는 명확한 구조적 정의
  • SAE를 personalization-oriented feature selector로 활용
  • Prompt engineering 없이도 compact & robust personalization


게시됨

카테고리

, ,

작성자

댓글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다