기존 long-tail 문제를 해결하는 방법
기존의 Softmax Cross-entropy는 Long-tail 인 데이터의 classifcation에는 부적절
Balanced error

Logit-adjusted threshold
Procedure: Post-hoc logit translation

여기서 $\pi_y$ 은 class prior 를 말한다.
기존에 구한 logit 값 $f_y(x)$ 와 class prior를 모두 고려하게 학습
Logit-adjusted loss
Procedure: Softmax with logit translation

기존 softmax cross-entropy 방법과 달리 balanced error을 최적화 하기 위해서 $P^{bal}(y|x)\propto P(y|x)/P(y)$ 을 바로 모델에 적용한다.
위 식에서 $\pi_y'/\pi_y$ 은 Desired gap or "margin" between scores for y and y' 을 말한다.
위 식은 Rare Positive y와 Dominant Negative y' 사이의 margin을 크게 만드는 역할을 한다.
기존 softmax cross-entropy식과 다른 점
Variation
Pairwise Margin Loss


