[ Semantic Segmentation Loss 큰 분류 ]

Untitled

Loss Functions for Medical Image Segmentation: A Taxonomy


위 논문 참조


딥러닝 알고리즘은 objective를 최적화하고 배우기 위해 SGD를 사용

objective를 정확하고 빠르게 학습하려면 loss function이라고도 하는 objective에 대한 수학적 표현이 edge cases 까지 커버할 수 있는지 확인해야 한다.

손실 함수의 도입은 이러한 loss function이 라벨 분포에 기초하여 도출된 전통적인 기계 학습에 뿌리를 두고 있다. 예를 들어, BCE는 베르누이 분포에서 파생되고 Categorial Cross Entropy는 다항 분포(Multinoulli distribution)에서 파생된다. 본 논문에서, 우리는 Instance Segmentation 대신 semantic segmentation에 중점을 두었으므로 픽셀 수준의 클래스 수는 2개로 제한된다. 여기서는 널리 사용되는 15가지 손실 함수에 대해 살펴보고 사용 사례 시나리오를 이해할 것입니다.

Binary Cross Entropy

본래 Cross Entropy란 주어진 랜덤한 변수 혹은 사건의 집합의 두개의 probability distribution들의 차이의 측정으로 정의되었다. 이것은 classification objective로 널리 사용됐고, segmentation은 pixel level 에서의 classfication이므로 잘 작동하였다.

Untitled

($\hat y$ 는 예측값)

Weighted Binary Cross Entropy(WCE)

a variant of binary cross entropy variant