MIT 6.S191 (2025): Deep Generative Modeling
페이지 정보

본문
[일시] 2025.11.17
[세미나 주제] Deep Generative Modeling
[발표자] 조연경
[요약]
본 리뷰는 생성 모델의 핵심 개념과 주요 기법을 간결하게 정리한다. 강의에서는 지도학습과 비지도학습의 차이를 시작으로, 생성 모델이 데이터의 확률분포를 직접 학습하는 비지도학습 기반 모델임을 설명하였다. 이후 오토인코더(AE)를 통해 잠재 공간을 학습하는 기본 구조를 소개하고, 변분 오토인코더(VAE)에서 확률적 잠재 분포, KL Divergence 기반 정규화, 재파라미터라이제이션 트릭을 이용한 end-to-end 학습 방식 등을 다루며, VAE가 데이터 생성 기능을 갖추는 과정을 정리하였다. 후반부에서는 GAN의 적대적 학습 구조를 중심으로, 생성기와 판별기가 경쟁하며 실제와 유사한 데이터를 만들어내는 메커니즘을 소개하였다. 또한 노이즈 공간에서의 매니폴드 이동, interpolation, CycleGAN의 도메인 변환 사례 등을 통해 GAN의 생성 능력과 응용 가능성을 간단히 살펴보았다. 본 리뷰의 목적은 AE–VAE–GAN으로 이어지는 생성 모델의 구조적 특징과 학습 방식의 차이를 명확히 정리하고, 생성 모델링의 전체 흐름을 이해하는 데 있다.
[녹화 영상 링크]
https://us06web.zoom.us/rec/share/v9Yz_JpJo1dh4YjtkaiA82yLxHgFl6xq9scH7X_y5epNk9quS5FIy5VXU0WuLzBz.UbdkK2ofmwTO4Qb6
[세미나 주제] Deep Generative Modeling
[발표자] 조연경
[요약]
본 리뷰는 생성 모델의 핵심 개념과 주요 기법을 간결하게 정리한다. 강의에서는 지도학습과 비지도학습의 차이를 시작으로, 생성 모델이 데이터의 확률분포를 직접 학습하는 비지도학습 기반 모델임을 설명하였다. 이후 오토인코더(AE)를 통해 잠재 공간을 학습하는 기본 구조를 소개하고, 변분 오토인코더(VAE)에서 확률적 잠재 분포, KL Divergence 기반 정규화, 재파라미터라이제이션 트릭을 이용한 end-to-end 학습 방식 등을 다루며, VAE가 데이터 생성 기능을 갖추는 과정을 정리하였다. 후반부에서는 GAN의 적대적 학습 구조를 중심으로, 생성기와 판별기가 경쟁하며 실제와 유사한 데이터를 만들어내는 메커니즘을 소개하였다. 또한 노이즈 공간에서의 매니폴드 이동, interpolation, CycleGAN의 도메인 변환 사례 등을 통해 GAN의 생성 능력과 응용 가능성을 간단히 살펴보았다. 본 리뷰의 목적은 AE–VAE–GAN으로 이어지는 생성 모델의 구조적 특징과 학습 방식의 차이를 명확히 정리하고, 생성 모델링의 전체 흐름을 이해하는 데 있다.
[녹화 영상 링크]
https://us06web.zoom.us/rec/share/v9Yz_JpJo1dh4YjtkaiA82yLxHgFl6xq9scH7X_y5epNk9quS5FIy5VXU0WuLzBz.UbdkK2ofmwTO4Qb6
첨부파일
-
6S191_MIT_DeepLearning_L4.pdf (6.7M)
DATE : 2025-11-17 14:38:23
- 이전글MIT 6.S191 (2024): Google - Generative AI for Media 25.11.27
- 다음글MIT 6.S191 (2025): Large Language Models 25.11.10
댓글목록
등록된 댓글이 없습니다.