[20260129 특별세미나] Learning Explainable WSI Representations under Weak S…
페이지 정보

본문
[일시] 2026.01.29.
[세미나 주제]
Learning Explainable WSI Representations under Weak Supervision
[발표자]
김희지
[요약]
본 발표에서는 약지도 기반 병리 이미지 분석에서 모델 성능과 해석 가능성 간의 한계를 정리하고, 이를 단계적으로 개선한 CLAM과 CGExplainer를 소개하였다. 기존 WSI 기반 attntion MIL 방법은 슬라이드 단위 레이블만을 활용해 분류 성능은 확보할 수 있으나, 어떤 패치가 왜 중요한지에 대한 해석이 부족하다는 문제가 존재한다. 특히 attention 기반 방법은 패치의 중요도를 제공하긴 하지만, 개별 패치 표현이 클래스 판별력을 갖도록 명시적으로 학습되지 않는 한계를 가진다.
CLAM은 이러한 문제를 해결하기 위해 evidence를 도입하여 attention score에 따라 positive evidence와 negative evidence로 나눠 중요한 패치에 집중하여 학습하는 방법을 제안한다. 또한, instance level clustering loss를 도입하여 attention으로 선택된 패치들이 클래스별로 구분되는 표현 공간을 형성하도록 유도한다. 이를 통해 슬라이드 예측 성능을 유지하면서도, 병리적으로 의미 있는 패치 집합을 안정적으로 식별할 수 있도록 하였으며, multi branch 구조를 통해 클래스별 패치 중요도를 분리하여 해석 가능성을 향상시켰다. 결과적으로 CLAM은 WSI weak supervised 학습 환경에서 성능과 패치 수준 해석을 동시에 개선한 MIL 기반 모델이다.
두 번째 논문인 CGExplainer는 패치 단위의 예측이 세포 단위 구조나 세포 간 상호작용을 직접적으로 설명하기에는 한계가 있다는 문제를 정의한다. 이에 따라 CGExplainer는 병리적 판단의 최소 단위인 세포의 공간적 관계를 명시적으로 모델링하는 cell graph 기반 접근법을 제안한다. CGExplainer는 이러한 cell graph 모델(CGNN)의 예측을 설명하기 위한 방법으로, 고정된 CGNN의 예측을 보존하면서 최소한의 세포 서브그래프를 찾는 문제를 정보이론적으로 정의한다. 구체적으로, 원래 예측과 서브그래프 간의 mutual information을 최대화하도록 노드 중요도 마스크를 학습하고, 이를 통해 예측 불확실성이 증가하지 않는 범위 내에서 그래프를 반복적으로 pruning하며 학습한다. 실험적으로 CGExplainer는 분류 성능을 유지하면서도 병리적으로 의미 있는 핵 집합과 구조적 패턴을 설명으로 도출할 수 있음을 보였다.
정리하면 CLAM이 패치 수준에서의 약지도 학습과 해석 가능성을 개선한 모델이고, CGExplainer는 이를 넘어 세포 단위 구조적 근거를 제공하는 설명 프레임워크로, 두 모델 모두 병리 AI의 해석 가능성을 한 단계 확장한 접근법이라 할 수 있다.
Q. cell segmentation 과정에 대한 문제가 있을 경우는 고려되지 않는 건가요?
A. 논문에서는 cell graph를 구성하기 위한 nuclei detection 및 segmentation 결과가 이미 주어진다는 가정 하에 모델을 설계하고 있으며, segmentation 오류 자체에 대한 강건성이나 보정 방법은 연구 범위에 포함되지 않습니다. cell graph 생성 단계는 전처리 과정으로 취급되며, CGNN 및 CGExplainer는 해당 결과를 기반으로 동작합니다. 논문은 실험에서 표준적인 nuclei detection 파이프라인을 사용함으로써, 실제 병리 분석 환경에서 적용 가능한 수준의 입력 품질을 가정하고 있습니다. 따라서 segmentation 오류가 예측이나 설명에 미치는 영향에 대한 분석은 향후 연구로 남아 있는 한계로 볼 수 있을 것 같습니다.
Q. 클래스 수가 늘어날 수록 cell graph의 수도 증가하는 것으로 보이는데 그 이유가 무엇인가요?
A. cell graph의 개수는 클래스 수 자체보다는 데이터셋 구성과 실험 설정에 의해 결정됩니다. 논문에서 클래스 수가 증가하는 실험 설정에서는, 각 클래스에 대해 충분한 학습 샘플을 확보하기 위해 더 많은 ROI 또는 cell graph가 포함됩니다. 즉, 다중 클래스 문제에서는 각 클래스의 분포를 안정적으로 학습하기 위해 전체 데이터 수가 증가하며, 따라서 cell graph의 수도 함께 늘어나는 구조입니다.
Q. attention score의 성능이 낮을 수록 CLAM의 evidence 선택에 대한 성능도 낮아질 것으로 예상되는데 attention score에 대한 실험결과는 나와있지 않았나요?
A. CLAM 논문에서는 attention score 자체의 정확도를 독립적인 지표로 평가하지는 않습니다. 논문에서는 attention을 통해 선택된 패치들이 분류 성능 및 시각적 일관성 측면에서 얼마나 유효한지를 간접적으로 평가합니다. 즉, attention score는 중간 결과물로 취급되며, 그 성능은 최종 분류 성능 향상과 병리적으로 타당한 evidence 시각화를 통해 검증됩니다. 또한 CLAM은 instance level clustering loss를 통해 attention이 특정 패치에 과도하게 분산되거나 불안정해지는 문제를 완화하도록 설계되었기 때문에 단순 attention MIL 대비 보다 안정적인 evidence 선택이 가능하다는 점을 실험적으로 보여줍니다. 정리하면 attention score의 정량적 정확도를 별도의 GT와 비교하는 실험은 포함되어 있지 않으며, 이는 약지도 학습 환경의 특성상 명시적인 패치 레벨 GT가 없다는 점에서 한계로 언급될 수 있습니다.
[관련 논문]
- Data Efficient and Weakly Supervised Computational Pathology on Whole Slide Images
- Towards Explainable Graph Representations in Digital Pathology
[녹화 영상]
https://us06web.zoom.us/rec/share/xllHlvN91l8CzzCw-17VGl4gNofPfB4FYTVfsA51wcc8lHOII_9DKd7yo0F4G4Zg.4Y6H-4P32Oe6PWEP
[세미나 주제]
Learning Explainable WSI Representations under Weak Supervision
[발표자]
김희지
[요약]
본 발표에서는 약지도 기반 병리 이미지 분석에서 모델 성능과 해석 가능성 간의 한계를 정리하고, 이를 단계적으로 개선한 CLAM과 CGExplainer를 소개하였다. 기존 WSI 기반 attntion MIL 방법은 슬라이드 단위 레이블만을 활용해 분류 성능은 확보할 수 있으나, 어떤 패치가 왜 중요한지에 대한 해석이 부족하다는 문제가 존재한다. 특히 attention 기반 방법은 패치의 중요도를 제공하긴 하지만, 개별 패치 표현이 클래스 판별력을 갖도록 명시적으로 학습되지 않는 한계를 가진다.
CLAM은 이러한 문제를 해결하기 위해 evidence를 도입하여 attention score에 따라 positive evidence와 negative evidence로 나눠 중요한 패치에 집중하여 학습하는 방법을 제안한다. 또한, instance level clustering loss를 도입하여 attention으로 선택된 패치들이 클래스별로 구분되는 표현 공간을 형성하도록 유도한다. 이를 통해 슬라이드 예측 성능을 유지하면서도, 병리적으로 의미 있는 패치 집합을 안정적으로 식별할 수 있도록 하였으며, multi branch 구조를 통해 클래스별 패치 중요도를 분리하여 해석 가능성을 향상시켰다. 결과적으로 CLAM은 WSI weak supervised 학습 환경에서 성능과 패치 수준 해석을 동시에 개선한 MIL 기반 모델이다.
두 번째 논문인 CGExplainer는 패치 단위의 예측이 세포 단위 구조나 세포 간 상호작용을 직접적으로 설명하기에는 한계가 있다는 문제를 정의한다. 이에 따라 CGExplainer는 병리적 판단의 최소 단위인 세포의 공간적 관계를 명시적으로 모델링하는 cell graph 기반 접근법을 제안한다. CGExplainer는 이러한 cell graph 모델(CGNN)의 예측을 설명하기 위한 방법으로, 고정된 CGNN의 예측을 보존하면서 최소한의 세포 서브그래프를 찾는 문제를 정보이론적으로 정의한다. 구체적으로, 원래 예측과 서브그래프 간의 mutual information을 최대화하도록 노드 중요도 마스크를 학습하고, 이를 통해 예측 불확실성이 증가하지 않는 범위 내에서 그래프를 반복적으로 pruning하며 학습한다. 실험적으로 CGExplainer는 분류 성능을 유지하면서도 병리적으로 의미 있는 핵 집합과 구조적 패턴을 설명으로 도출할 수 있음을 보였다.
정리하면 CLAM이 패치 수준에서의 약지도 학습과 해석 가능성을 개선한 모델이고, CGExplainer는 이를 넘어 세포 단위 구조적 근거를 제공하는 설명 프레임워크로, 두 모델 모두 병리 AI의 해석 가능성을 한 단계 확장한 접근법이라 할 수 있다.
Q. cell segmentation 과정에 대한 문제가 있을 경우는 고려되지 않는 건가요?
A. 논문에서는 cell graph를 구성하기 위한 nuclei detection 및 segmentation 결과가 이미 주어진다는 가정 하에 모델을 설계하고 있으며, segmentation 오류 자체에 대한 강건성이나 보정 방법은 연구 범위에 포함되지 않습니다. cell graph 생성 단계는 전처리 과정으로 취급되며, CGNN 및 CGExplainer는 해당 결과를 기반으로 동작합니다. 논문은 실험에서 표준적인 nuclei detection 파이프라인을 사용함으로써, 실제 병리 분석 환경에서 적용 가능한 수준의 입력 품질을 가정하고 있습니다. 따라서 segmentation 오류가 예측이나 설명에 미치는 영향에 대한 분석은 향후 연구로 남아 있는 한계로 볼 수 있을 것 같습니다.
Q. 클래스 수가 늘어날 수록 cell graph의 수도 증가하는 것으로 보이는데 그 이유가 무엇인가요?
A. cell graph의 개수는 클래스 수 자체보다는 데이터셋 구성과 실험 설정에 의해 결정됩니다. 논문에서 클래스 수가 증가하는 실험 설정에서는, 각 클래스에 대해 충분한 학습 샘플을 확보하기 위해 더 많은 ROI 또는 cell graph가 포함됩니다. 즉, 다중 클래스 문제에서는 각 클래스의 분포를 안정적으로 학습하기 위해 전체 데이터 수가 증가하며, 따라서 cell graph의 수도 함께 늘어나는 구조입니다.
Q. attention score의 성능이 낮을 수록 CLAM의 evidence 선택에 대한 성능도 낮아질 것으로 예상되는데 attention score에 대한 실험결과는 나와있지 않았나요?
A. CLAM 논문에서는 attention score 자체의 정확도를 독립적인 지표로 평가하지는 않습니다. 논문에서는 attention을 통해 선택된 패치들이 분류 성능 및 시각적 일관성 측면에서 얼마나 유효한지를 간접적으로 평가합니다. 즉, attention score는 중간 결과물로 취급되며, 그 성능은 최종 분류 성능 향상과 병리적으로 타당한 evidence 시각화를 통해 검증됩니다. 또한 CLAM은 instance level clustering loss를 통해 attention이 특정 패치에 과도하게 분산되거나 불안정해지는 문제를 완화하도록 설계되었기 때문에 단순 attention MIL 대비 보다 안정적인 evidence 선택이 가능하다는 점을 실험적으로 보여줍니다. 정리하면 attention score의 정량적 정확도를 별도의 GT와 비교하는 실험은 포함되어 있지 않으며, 이는 약지도 학습 환경의 특성상 명시적인 패치 레벨 GT가 없다는 점에서 한계로 언급될 수 있습니다.
[관련 논문]
- Data Efficient and Weakly Supervised Computational Pathology on Whole Slide Images
- Towards Explainable Graph Representations in Digital Pathology
[녹화 영상]
https://us06web.zoom.us/rec/share/xllHlvN91l8CzzCw-17VGl4gNofPfB4FYTVfsA51wcc8lHOII_9DKd7yo0F4G4Zg.4Y6H-4P32Oe6PWEP
첨부파일
-
20260129_김희지_Learning Explainable WSI Representations under Weak Supervision.pdf (2.1M)
DATE : 2026-01-29 16:34:36
- 이전글[20260129 특별세미나] Enhancing Few-Shot Pathological Image Classification via Prompt-Based Text-Image Embedding Adaptation 26.01.29
- 다음글[20260128 특별세미나] Concept Bottleneck Models 26.01.29
댓글목록
등록된 댓글이 없습니다.