MIT 6.S191 (2025): Large Language Models
페이지 정보

본문
[일시] 2025.11.10
[세미나 주제] Large Language Models (Google / Liquid AI)
[발표자] 김희지
[요약]
본 리뷰는 Large language model의 학습, fine-tuning, post-trainig 및 프롬프트 엔지니어링까지의 전 단계를 다룬다. Part1(Google) 강의에서는 LLM의 발전과정과 bayesian 언어 모델 실습 및 프롬프트 엔지니어링에 대해 단계적으로 소개하였다. Part2(Liquid AI) 강의에서는 LLM의 데이터셋 구축과 파인튜닝 및 선호도 정렬(Alignment) 기법 등을 소개하며 데이터셋과 training 과정 전반의 내용을 다루었다. 또한 다양한 벤치마크 평가 방법을 중심으로 LLM의 발전 방향을 제시하였다. 특히 ReAct, PRM, LoRA 등의 대표적인 방법론을 구체적인 예시와 함께 분석하며 모델의 추론 및 학습 메커니즘을 소개하였다. 추론 단계에서 모델의 성능을 높이는 Majority Voting과 PRM(Process Reward Model) 등의 기법을 통해, LLM이 단순히 정답을 산출하는 것이 아니라 논리적 사고 과정을 스스로 평가하고 개선하는 방향으로 발전하고 있음을 확인하였다. 이를 통해 LLM의 성능 향상이 단순한 모델 규모 확장이 아닌, 데이터 품질과 학습 과정, 평가 체계의 유기적 순환을 통해 이루어진다는 점을 이해할 수 있었다. 따라서 본 리뷰는 LLM의 구조적 발전 메커니즘을 체계적으로 정리하고, 향후 연구와 응용의 방향성을 모색하는 데 의의를 둔다.
[녹화 영상 링크]
https://us06web.zoom.us/rec/share/1rliupDuYN_5xjRJ8Ty1mOooU1nhFdHO4nGE8t2lvuCt7A-D_uh6wF2Cp1Rf7EEm.JPIGa7PvIxGiniX-
[세미나 주제] Large Language Models (Google / Liquid AI)
[발표자] 김희지
[요약]
본 리뷰는 Large language model의 학습, fine-tuning, post-trainig 및 프롬프트 엔지니어링까지의 전 단계를 다룬다. Part1(Google) 강의에서는 LLM의 발전과정과 bayesian 언어 모델 실습 및 프롬프트 엔지니어링에 대해 단계적으로 소개하였다. Part2(Liquid AI) 강의에서는 LLM의 데이터셋 구축과 파인튜닝 및 선호도 정렬(Alignment) 기법 등을 소개하며 데이터셋과 training 과정 전반의 내용을 다루었다. 또한 다양한 벤치마크 평가 방법을 중심으로 LLM의 발전 방향을 제시하였다. 특히 ReAct, PRM, LoRA 등의 대표적인 방법론을 구체적인 예시와 함께 분석하며 모델의 추론 및 학습 메커니즘을 소개하였다. 추론 단계에서 모델의 성능을 높이는 Majority Voting과 PRM(Process Reward Model) 등의 기법을 통해, LLM이 단순히 정답을 산출하는 것이 아니라 논리적 사고 과정을 스스로 평가하고 개선하는 방향으로 발전하고 있음을 확인하였다. 이를 통해 LLM의 성능 향상이 단순한 모델 규모 확장이 아닌, 데이터 품질과 학습 과정, 평가 체계의 유기적 순환을 통해 이루어진다는 점을 이해할 수 있었다. 따라서 본 리뷰는 LLM의 구조적 발전 메커니즘을 체계적으로 정리하고, 향후 연구와 응용의 방향성을 모색하는 데 의의를 둔다.
[녹화 영상 링크]
https://us06web.zoom.us/rec/share/1rliupDuYN_5xjRJ8Ty1mOooU1nhFdHO4nGE8t2lvuCt7A-D_uh6wF2Cp1Rf7EEm.JPIGa7PvIxGiniX-
첨부파일
-
MIT 6.S191 Large Language ModelsGoogle Liquid AI.pdf (5.6M)
DATE : 2025-11-10 15:55:48
- 이전글MIT 6.S191 (2025): Deep Generative Modeling 25.11.17
- 다음글MIT 6.S191 (2020): Neurosymbolic AI 25.11.06
댓글목록
등록된 댓글이 없습니다.