지난 9월 28일 온라인으로 네이버 연구원 두분의 세미나를 들은 것에 대한 리뷰를 할려합니다.
세미나 이후 시간이 많이 지났지만 그 당시 들었던 정보를 정리하기 위해 작성합니다.
두 연구원님은 Metric learning 에 관한 논문들을 설명해주신 세미나를 해주셨습니다.
Metric learning 은 예전 김남일 연구원님이 세미나를 통해서 처음 알려주시고, 네이버 챌린지때 NetVLAD를 위해 Triplet Loss에서 사용하기 위해서 공부했었어서, 기본적인 이해를 하고 세미나를 들으니 꽤 많은 정보를 얻을 수 있었던 시간 이였던 같습니다.
Under Review 상태였던 논문을 제외한 두개의 논문에 대해서 이야기 하자면, 둘다 Metric learning 을 할 때 중요한 Data 의 quality를 높히는 것을 중점으로 , 다른 관점으로 접근하여 해결책을 제시했다. Symmetrical Synthesis for Deep Metric Learning 같은 경우는 Hard Negative을 Positive와 Negative 간의 Symmetrical 을 이용해서 생성하는 것이고, Embedding Expansion 같은 경우는 Positive를 생성하고, 그 중에서 다른 클래스와의 관계를 고려하여 Hard Negative를 선정하는 컨셉이다.
두 논문 모두 다른 Metric 에 합칠 수 있는 방법론들로 기존 다른 방법론들에 붙히면 모두 성능이 올라갈수있는 매우 유용한 방법론이다. 데이터들관의 관계를 수식적으로 정의하고 이를 적용하여 성능이 올라가는 흥미로웠던 것 같다. 트기 Symmetric 한 관계를 수식적으로 정의하여 Hard Negative를 생성하는 방식은 매우 신기했던 것 같다. 앞으로 MDII의 Extension 이나 다른 Metric learning을 하게 되는 일이 온다면 적용할 수 있는 방향을 고려해보면 좋을 것 같다.