[260120 특별세미나] Simulation-Based Multi-Objective Factory Layout Optimiz…

페이지 정보

profile_image
작성자 김지훈
댓글 0건 조회 43회 작성일 26-01-28 11:24

본문

[일시] 2026.01.20.

[리뷰 논문] Simulation-Based Multi-Objective Factory Layout Optimization: A Reinforcement Learning Approach

[요약]
본 발표는 factory layout planning이 NP-hard에 속하는 복잡한 조합 최적화 문제임에도 불구하고, 기존 연구들은 주로 정적인 수식 모델(analytic modeling)에만 의존해 왔다는 점을 지적한다. 이로 인해 실제 공정 내 대기 시간이나 병목 현상 같은 동적인 자재 흐름(Dynamic Material Flow)을 반영하지 못하는 한계를 해결하고자 한다. 이를 극복하기 위해 제안된 방법론은 강화학습(Rainbow DQN) 환경에 Discrete Event Simulation (DES)을 통합하였다. 이를 통해 throughput time과 같은 동적 목표와 운송 거리(transportation intensity) 같은 정적 목표를 동시에 고려하는 multi-objective 최적화 프레임워크를 구축하였다.

연구에서는 다중 목표를 처리하기 위해 'Linear Scalarization'과 'Modular Multi-Agent' 두 가지 아키텍처를 비교하였다. 실험 결과, 모든 목표를 가중 합으로 통합하여 하나의 에이전트를 학습시키는 Linear Scalarization 방식이 Pareto frontier의 다양성 확보 및 솔루션 품질 측면에서 훨씬 우수함을 입증하였다. 또한, Greenfield 및 Brownfield 시나리오 실험을 통해 제안된 RL 모델이 기존의 메타휴리스틱 알고리즘(GA, NSGA-II)과 비교하여 동등 이상의 성능을 냄을 확인하였다. 특히 동적 복잡성이 높은 환경에서 더욱 효율적인 레이아웃을 도출한다는 점이 강조되었다.

[Q&A]
Q. Pareto frontier 집합에 속하는 해들 사이에 우열 관계가 존재하는가? 또한, 그중 어떤 해를 최종적인 최적해로 선정하여 결과를 도출하게 되는가?
A. Pareto frontier에 속한 해들은 서로 상충하는 목표들(예: 생산 시간 vs 운송 거리) 사이에서 최적의 균형을 이루고 있는 상태이므로, 수학적으로 해들 간의 절대적인 우열은 존재하지 않는다. 따라서 시스템이 하나의 고정된 최적해를 지정하는 것이 아니라, 사용자가 현재 상황에서 더 중요하게 고려하는 목적식이나 가중치에 따라 유동적으로 가장 적합한 해를 선택하여 활용하는 방식이다.

[녹화 영상 링크]
https://us06web.zoom.us/rec/component-page?eagerLoadZvaPages=&accessLevel=meeting&action=viewdetailpage&sharelevel=meeting&useWhichPasswd=meeting&requestFrom=pwdCheck&clusterId=us06&componentName=need-password&meetingId=kY5AOn5_rSz6T9qc4qhc8Y3AKKCWueTCgGZznU5E9D7KNpeTgLPJuzzAX3N2N5o-.sn4Xv18Y7IjlPMK2&originRequestUrl=https%3A%2F%2Fus06web.zoom.us%2Frec%2Fshare%2Fqc-Peamlksk-X51SbDmfbkf8q2vYEH-0oo4eXTUHVgq1DoCaD0d4Ef2F_QH-8pbx.KyOxz0fgQV0NuMj_

첨부파일

댓글목록

등록된 댓글이 없습니다.