[20250917 통합 세미나] Meta-Learning in Digital Pathology : DCPN & MetaStai…

페이지 정보

profile_image
작성자 박소영
댓글 0건 조회 49회 작성일 25-09-22 11:51

본문

[일시] 2025.09.17

[세미나 주제] Meta-Learning in Digital Pathology: DCPN & MetaStain

[발표자] 박소영

[요약]
이번 발표는 디지털 병리에서 기관,스캐너,염색 프로토콜 차이로 생기는 domain shift와  고품질 labe의 희소성이라는 현실적 제약을 에피소드 기반 메타러닝으로 풀어가는 두 연구를 정리했다. 병리 이미지에서의 domain shift는 학습 및 평가 데이터 분포 불일치로 인해 외부 기관에서의 일반화 성능을 떨어뜨리며 이를 완화하기 위해 stain normalization과 같은 전처리와 에피소드 학습, 프로토타입/거리 기반 분류, 자기지도 사전학습 등을 결합하는 전략이 제안된다. 또한, Few-Shot 세팅에서는 N-way K-shot 에피소드를 통해 적은 라벨로 빠르게 적응하는 능력 자체를 학습한다.

DCPN(Dual-Channel Prototype Network)은 프로토타입 학습의 표현력을 높이기 위해 global 문맥을 잘 포착하는 Transformer(PVT)를 병리 데이터로 사전학습한 뒤, local 형태에 강한 CNN(ResNet)과 결합해 이중 채널 임베딩을 구성한다. 이렇게 얻은 다중 스케일 특징으로 클래스 프로토타입을 만들고 스케일별 근접도를 소프트 보팅으로 결합해 분류를 수행한다. 이 과정에서 프로토타입 가정과 정합되는 유클리드 거리를 채택하는 것이 코사인 거리보다 더 안정적인 성능을 보였고 백본 비교에서는 ResNet50과 PVT-small을 함께 쓰는 조합이 보완 효과를 극대화했다. 최종 실험에서는 same/near/mixture domain 과제 전반에서 병리 특화 방법이나 기존 방법들보다 높은 성능을 보였으며 domain 난이도가 커질수록 전반적으로 정확도가 하락하는 한계도 관찰되었다.

MetaStain은 다양한 IHC/H&E 염색을 Meta-training 단계에서 에피소드로 구성하고 공유 인코더와 Masked avg. Polling(MAP)으로 클래스 프로토타입을 산출한 뒤 triplet loss로 염색 내/염색 간 클러스터를 동시에 정렬한다. 서로 다른 염색 간 공간적 대응을 보존하기 위해 consistency tiplet을 추가하여 Meta-test에서는 target stain의 적은 support만으로 디코더를 파인튜닝하고 인코더는 고정하여 빠른 적응과 안정성을 확보한다. 만약 target에 보지 못한 새 클래스가 포함된 경우에는 support에서 추출한 클래스의 가중 벡터들 사이의 관계를 GAT로 학습해 새로운 클래스의 가중치를 생성하는 weight generator를 옵션으로 붙여 test시 클래스를 증가시켜 적응하도록 한다. 실험은 대규모 다중 염색 MIST 데이터셋에서 이진 분할과 H&E 5-class 실험으로 설계되었고 Meta-test에서의 적은 label의 fine-tuning만으로도 기존 방법 대비 높은 Dica/Accuracy 향상을 보였다.

두 method는 공통적으로 적은 label로 보지 못한 염색 및 기관에 견고하게 일반화 한다는 목표를 공유하지만 구현 면에서는 다르다. DCPN은 설계 측면에서 이중 채널 + 다중 스케일 프로토타입과 거리 지표로 프로토타입의 품질을 끌어올렸고 MetaStain은 학습 절차 측면에서 Meta-training/Meta-test의 분할, 2가지의 triplet loss 결합, TTA 및 GAT 기반 클래스 증가로 실제 test 시나리오에 직접 대응하고 적응한다.

Q : 메타러닝이 뭔가요?
A : 메타러닝은 한마디로 말하자면 학습하는 방법을 학습하는 방식입니다. 하나의 큰 과제를 오랫동안 훈련해 고정 모델을 만드는 대신 다양한 에피소드를 연속해서 경험시키며 새 과제가 왔을 때 소수의 예시만 보고도 빨리 맞추는 능력을 기릅니다. 어떤 방법들은 빠르게 미세조정되는 초기화 방식을 배우고,  어떤 방법은 적은 예시에서도 바로 구분되는 공간을 배우고, 또 다른 방법은 효율적인 엡데이트 방식 자체를 배우게 됩니다. 많은 방식들이 과제를 적응에 쓰는 데이터와 일바놔 확인에 쓰는 데이터로 나누어 적응 후에도 잘 일반화 되는 파라미터르 찾는다는 공통 아이디어를 가집니다.

Q: 일반적인 train/test와 무엇이 다른가요?
A: 일반적인 학습은 하나의 데이터셋으로 충분히 훈련해 고정된 모델을 만든 뒤 별도의 테스트셋으로 평가하게 됩니다. 반면에 Meta-Learning은 과제단위(에피소드 단위)로 훈련을 구성하게 됩니다. 각 과제 안에서 잠깐의 적응 단계와 일반화 확인 단계를 거치고 그 결과로 파라미터를 업데이트 합니다. 이 과정을 여러 에피소드에 걸쳐 반복하며 처음 보는 과제에도 빠르게 적응하는 능력을 직접 최적화합니다. 실제 테스트 때도 바로 예측하는 것이 아니라 소수 예시로 짧게 적응한 뒤 예측하는 절차가 포함되는 점이 가장 큰 차이입니다.


Q : Meta-Learning 단계가 모두 끝나면 모델이 나오게 되는건가요?
A : 특정 과제에 고정된 모델 하나를 주는게 목표가 아니라 결과물은 보통 학습된 파라미터와 빠른 적응을 어떻게 하는지에 대한 절차입니다. 어떤 아키텍처와 가중치를 초기 값으로 쓰고 새 과제의 소수 예시를 어떻게 이용해 몇 번동안 빠르게 적응할지까지 포함된 절차가 나옵니다. 이걸 받은 쪽에서 자신들의 목표 과제에 맞춰 짧게 적응을 수행해 최종 모델을 얻게 됩니다. 필요하다면 이 절차르 미리 적용해 특정 대상에 맞춘 파인튜닝 완료 가중치를 만들어 전달할 수 있지만 이는 메타러닝 산출물을 활용해 파생된 결과이기에 본질적은 산출물은 빨리 맞춰 사용할 수 있는 파라미터와 절차(적응법) 입니다.

[관련 논문]
- Dual-channel Prototype Network for Few-Shot Classification of Pathological Images
- MetaStain : Stain-generalizable Meta-Learning for Cell Segmentation and Classification with Limited Exemplars

[녹화 영상]
https://us06web.zoom.us/rec/share/jFHkXZqBlSa2oVX8AQQ12eZJ4CaneIIkUM3szslw_O5NT_QuLHfDC5urvr_BNATD.LTng_0Je8ULCpaxC

첨부파일

댓글목록

등록된 댓글이 없습니다.