Introduction

기존 long-tail 문제를 해결하는 방법

  1. Post-hoc normalization of the classification weights (NISER가 이 경우에 해당)
    1. 이 방법의 문제점: Weight normalization crucially relies on the weight norms being smaller for rare classes
  2. Modification of the underlying loss to account for varying class penalties
    1. 이 방법의 문제점: Loss modification sacrifices the consistency that underpins the canonical softmax cross-entropy

Problem Setup and Related Work

기존의 Softmax Cross-entropy는 Long-tail 인 데이터의 classifcation에는 부적절

저자들이 제안하는 방법

  1. Logit-adjusted threshold

  2. Logit-adjusted loss

    Experimental Results

    IMG_EB1551789910-1.jpeg

    IMG_F861797D0863-1.jpeg