[카테고리:] Machine Learning

  • * Latent Space Bayesian Optimization with Latent Data Augmentation for Enhanced Exploration (Neural Computation 2024)

    * Latent Space Bayesian Optimization with Latent Data Augmentation for Enhanced Exploration (Neural Computation 2024)

    1. 연구 배경: Latent Space Bayesian Optimization (LSBO) 1.1 문제: 고차원/구조 데이터 최적화 많은 과학 문제는 다음 형태의 Black-box optimization이다. maxx∈X⁡fBB(x)\max_{x \in X} f_{BB}(x) 예: 문제는: 그래서 사용하는 방법이 Bayesian Optimization (BO). 1.2 BO의 기본 아이디어 BO는 다음 과정을 반복한다. (1) surrogate model (보통 Gaussian Process) 학습 fGP(x)f_{GP}(x) (2) acquisition function 사용 xnext=arg⁡max⁡AF(x)x_{next} = \arg\max…

  • ** Learning Optimal Data Augmentation Policies via Bayesian Optimization for Image Classification Tasks (ArXiv 19)

    ** Learning Optimal Data Augmentation Policies via Bayesian Optimization for Image Classification Tasks (ArXiv 19)

    이 논문은 **데이터 증강(Data Augmentation) 정책을 Bayesian Optimization(BO)으로 자동 탐색하는 방법(BO-Aug)**을 제안합니다. 핵심은 AutoAugment보다 훨씬 적은 계산 비용으로 데이터 증강 정책을 자동으로 찾는 것입니다. 1. 연구 배경 및 문제 딥러닝에서 데이터 양 부족 → overfitting → 일반화 성능 저하 문제가 있습니다. 대표적인 해결책: 하지만 데이터 증강 정책 설계는 사람이 직접 해야 하는 경우가 많음 예…

  • ** Searching for Optimal Solutions with LLMs via Bayesian Optimization (ICLR 2025)

    ** Searching for Optimal Solutions with LLMs via Bayesian Optimization (ICLR 2025)

    1. 문제의식: LLM 기반 “탐색”의 한계 최근 LLM을 테스트 타임에서 여러 번 샘플링하여 더 나은 해를 찾는 방식(test-time compute scaling)이 주목받고 있습니다. 하지만 기존 방식들은 다음 한계를 가집니다: 접근 한계 Repeated Sampling 탐색 공간 구조를 고려하지 않음 Greedy OPRO exploitation 위주 → local optima에 갇힘 진화 알고리즘 비용 큼 / 정적 전략 난이도 예측 기반…

  • * Inversion-based Latent Bayesian Optimization (NeurIPS 2024)

    * Inversion-based Latent Bayesian Optimization (NeurIPS 2024)

    논문의 핵심은 Latent Bayesian Optimization (LBO)의 misalignment 문제를 inversion으로 해결하고, trust region anchor 선택을 개선하는 것입니다  . 1. 문제 배경: Latent Bayesian Optimization (LBO) 1.1 LBO의 기본 구조 LBO는 이산/구조적 입력 공간(예: 분자, 수식)을 연속 latent space로 매핑한 뒤 BO를 수행합니다. Surrogate model g(z)는 사실상 f∘pθ:Z→Yf \circ p_\theta : Z \to Y 를 근사해야 합니다 …

  • ** Hyperband-based Bayesian Optimization for Black-box Prompt Selection (ICML 2025)

    ** Hyperband-based Bayesian Optimization for Black-box Prompt Selection (ICML 2025)

    1. 문제 설정: Static Black-box Prompt Selection 목표 수식적으로는: arg⁡minp∈P⁡𝔼(x,y)[l(y,hp(x))]\arg\min_{p \in P} \mathbb{E}_{(x,y)}[l(y, h_p(x))] 하지만 실제로는 validation set 평균으로 근사: f(p)=1nvalid∑i=1nvalidl(yi,hp(xi))f(p) = \frac{1}{n_{valid}} \sum_{i=1}^{n_{valid}} l(y_i, h_p(x_i)) 여기서 핵심 제약은: 즉, 샘플 효율(sample-efficient) + 쿼리 효율(query-efficient) 이 동시에 필요함. 2. 기존 방법들의 한계 논문에서 지적한 문제점: 방법 한계 EASE exemplar selection 위주, 구조 정보 활용 X…

  • ** INSTRUCTZERO: Efficient Instruction Optimization for Black-Box Large Language Models (ICML 2024)

    ** INSTRUCTZERO: Efficient Instruction Optimization for Black-Box Large Language Models (ICML 2024)

    1. 문제 정의: 왜 Instruction 최적화가 어려운가? LLM은 instruction-following 능력이 있지만, instruction phrasing에 매우 민감합니다. 동일한 의미라도 표현이 조금만 달라지면 성능이 크게 변합니다. 논문은 다음 문제를 다룹니다: maxv∈𝒱⁡𝔼(X,Y)∼Dth(f([v;X]),Y)\max_{v \in \mathcal{V}} \mathbb{E}_{(X,Y)\sim D_t} h(f([v;X]), Y) 핵심 난점 2. 핵심 아이디어 직접 instruction을 최적화하지 않는다. 대신, Soft prompt를 최적화해서, open-source LLM이 좋은 instruction을 생성하도록 유도한다. 전체 구조…

  • * Bayesian Optimization for Instruction Generation (BOInG) (Applied Sciences, 2024)

    * Bayesian Optimization for Instruction Generation (BOInG) (Applied Sciences, 2024)

    다음 논문은 BO를 이용해 instruction(프롬프트)를 자동 생성하는 방법을 제안한 연구입니다: Sabbatella et al., “Bayesian Optimization for Instruction Generation (BOInG)”, Applied Sciences, 2024  1. 문제 설정: 왜 Instruction을 BO로 최적화하는가? LLM의 성능은 **instruction(=프롬프트)**에 매우 민감합니다. 특히 **black-box LLM (예: GPT-3.5, GPT-4o)**에서는 gradient 접근이 불가능하므로, instruction 최적화는 black-box combinatorial optimization 문제가 됩니다. 논문은 이를 다음과 같이 정식화합니다…

  • ** Bayesian Optimization for Controlled Image Editing via LLMs (ACL 2025 Findings)

    본 논문은 BayesGenie라는 프레임워크를 제안합니다. 핵심 아이디어는 다음과 같습니다: LLM을 “Promptist + Evaluator”로 사용하고, Bayesian Optimization(BO)을 통해 diffusion 모델의 CFG 파라미터를 자동 최적화하여 mask 없이 정밀한 이미지 편집을 수행한다. 1. 문제 설정 기존 한계 기존 image editing 방법들의 문제점: 2. BayesGenie 전체 구조 시스템 개요 (논문 Figure 2, p.4) 구조는 다음 4단계로 구성됩니다: ① LLM…

  • ** (Latent) Bayesian Optimization(베이지안 최적화, BO)

    아래는 Bayesian Optimization(베이지안 최적화, BO) 를 직관 → 구성요소 → 알고리즘 흐름 → 예시 → 실전 팁/주의점 순서로 설명한 내용입니다. 1) BO가 풀고 싶은 문제는 뭔가? BO는 보통 이런 상황에서 씁니다. 즉, “적은 횟수의 실험으로 최적점을 찾는” 최적화. 2) 직관: “지도(확률모델) + 다음에 어디 볼지(탐색전략)” BO는 매 반복마다 딱 두 가지를 합니다. 이걸 반복합니다. 3)…