Diffusion 이후에 주목받는 연속 생성 모델의 핵심 아이디어
최근 생성 모델 분야에서는 Diffusion Model 이후의 대안으로 Flow Matching (FM) 이라는 접근이 빠르게 주목받고 있습니다.
Flow Matching은 단순히 “새로운 생성 모델”이라기보다, 확률 분포 간의 변환을 연속적인 벡터장(vector field)으로 직접 학습하는 방법이라고 이해하는 것이 좋습니다.
1. 기존 생성 모델의 한계
VAE (Variational AutoEncoder)
- Latent space를 학습
- 보간(interpolation)이 자연스러움
- ❌ 생성 결과가 흐릿함
- ❌ 복잡한 분포 표현 한계
Diffusion Model
- 노이즈 → 데이터로 점진적 복원
- 고품질 생성 성능
- ❌ 수백~수천 step 필요
- ❌ 샘플링 비용이 큼
- ❌ “왜 이 경로로 복원되는가?” 해석이 어려움
Flow Matching은 이 두 문제를 동시에 건드린다
2. Flow Matching의 핵심 아이디어
“분포 A에서 분포 B로 이동하는 가장 자연스러운 연속 경로는 무엇인가?”
Flow Matching은
- 노이즈 분포 → 데이터 분포
- 또는 단순 분포 → 복잡한 분포
로 이동하는 연속적인 흐름(flow) 을 정의하고,
그 흐름을 만드는 속도 벡터장을 직접 학습합니다.
3. 직관적으로 이해하기
Diffusion
Flow Matching
- Diffusion: “노이즈를 조금씩 제거”
- Flow Matching: “어느 방향으로 얼마나 움직여야 하는지”를 바로 학습
ODE 기반 생성 모델
4. Flow Matching의 학습 방식
Flow Matching은 놀랍게도 확률 밀도 계산이 필요 없다는 특징이 있습니다.
기본 구조
- 시작 분포 p₀(x) (보통 Gaussian)
- 목표 분포 p₁(x) (실제 데이터)
- 두 분포 사이를 잇는 경로 x(t) 정의
- 해당 경로의 속도 v(x,t) 를 신경망이 예측
- 예측 속도와 실제 속도의 차이를 최소화
즉, “이 시점 t에서, 이 위치 x라면 어디로 가야 하는가?” 를 맞추는 문제입니다.
5. 왜 Flow Matching이 좋은가?
장점 요약
| 샘플링 | 느림 | 빠름 |
| step 수 | 많음 | 적음 (ODE solver) |
| 안정성 | stochastic | deterministic |
| 해석 가능성 | 낮음 | 높음 |
| Latent 보간 | 제한적 | 매우 자연스러움 |
특히,
- Latent space 구조 분석
- 보간 경로 자체가 의미 있는 경우
- 물리적/기하학적 해석이 필요한 문제
에서 강력합니다.
6. Latent Flow Matching (중요)
최근 연구에서는 Latent space에서 Flow Matching을 수행하는 접근이 활발합니다.
왜 Latent인가?
- 차원 감소
- 구조적 의미 유지
- 계산 비용 감소
예시 활용
- 메타물질 구조 생성
- 포인트 클라우드 생성
- 연속적인 형상 보간
- “중간 상태 자체가 의미 있는” 문제
VAE + Flow Matching 구조가 자주 사용됨
7. Diffusion과의 관계
Flow Matching은 Diffusion의 대체제가 아니라, Diffusion을 포함하는 더 일반적인 프레임워크 라고 보는 게 맞습니다.
- Score Matching → Diffusion
- Probability Flow ODE → Flow Matching
- 최근 Diffusion 가속 기법 대부분이 Flow 관점으로 재해석 가능
8. 언제 Flow Matching을 써야 할까?
Flow Matching이 특히 좋은 경우
- 생성 과정의 경로 자체가 중요
- Latent space에서의 연속적 변화 분석
- 빠른 샘플링이 필요할 때
- 재생성 모델 (inverse problem, reconstruction)
단순 이미지 생성만 목적이라면?
- 여전히 Diffusion이 강력
- 하지만 조건부 생성 / 구조 생성에서는 FM이 유리
9. 정리
Flow Matching은 “확률 분포를 직접 맞추는 것이 아니라, 분포를 이동시키는 흐름 자체를 학습하는 생성 모델” 입니다.
Diffusion 이후의 생성 모델 흐름을 이해하려면 Flow Matching은 선택이 아니라 필수 개념이 되어가고 있습니다. 다음에 기회가 된다면, 논문 리뷰 내용도 올리겠습니다.
참고 논문: Flow Matching for Generative Modeling
Flow Matching for Generative Modeling
We introduce a new paradigm for generative modeling built on Continuous Normalizing Flows (CNFs), allowing us to train CNFs at unprecedented scale. Specifically, we present the notion of Flow Matching (FM), a simulation-free approach for training CNFs base
arxiv.org
'Computer Science > 딥러닝' 카테고리의 다른 글
| Latent Space(잠재공간)란? (0) | 2026.01.23 |
|---|---|
| 딥러닝에서 파라미터(Parameter)와 하이퍼파라미터(Hyperparameter)의 차이 (0) | 2026.01.19 |
| Colab GPU 비교: T4 · A100 · H100 (0) | 2026.01.16 |
| 객체 탐지(Object Detection) 성능지표 - mAP (0) | 2025.12.10 |
| Pointwise Multiplication 예제 (0) | 2025.12.05 |