지난 주 월요일에 온라인으로 네이버 연구원 두 분의 세미나를 듣게 되어 리뷰를 작성합니다.
세미나의 큰 주제는 metric learning에 관한 것이었습니다. 주로 같은 것을 더 같게, 다른 것을 더 다르게 만드는 metric learning을 어떻게 하면 더 잘할 수 있을까에 대한 내용이었고, 이에 대해 여러가지 제안하신 방법들을 소개해 주셨습니다.
처음 설명해주신 방법은 symmetrical synthesis 통해 성능을 높히는 방법이였습니다. 이 방법은 어떻게 하면 metric learning을 잘하게 하도록 학습을 시킬까라는 질문에 hard negative mining을 해결책으로 정하고, 그렇다면 hard negative를 어떻게 만들까라는 질문에는 파라미터에 민감한 Generative 모델로 만드는 것이 아닌 symmetric 하게 만든다는 해결책을 토대로 제안되었습니다. 다른 방법들도 있지만 symmetric을 사용한 이유에 대해 이론적인 부분을 말씀해주실 때에는 온전히 이해를 하지 못하였지만 이제까지 읽어왔던 논문들에서 symmetric 하게 semi-supervised learning을 하는 등, symmetric 한 방법들이 feature augmentation 관점에서 좋은 성능을 낼 수 있었다는 것을 확인할 수 있었습니다. 사실 그리고 제안된 방법도 제안된 방법이지만 논문에 들어가있는 콘텐츠 중에 실험 부분에서 visualization 하는 부분이 인상깊었습니다. t-SNE 를 통해 feature 들을 2-D space로 만들고 실제로 같은 class 의 feature들이 유사해졌는지 보여주는 visualization이 많았는데, 이를 보면서 확실히 metric learning이 아니더라도 설명을 할 때는 좋은 도구라고 생각되었습니다. 그래서 세미나를 듣는 도중에 계속 제가 이전에 연구했던 방법들에 같은 방식으로 적용해보고싶다는 생각이 들을 정도였습니다.
그리고 두번째로 설명해주신 방법은 embedding expansion이라고 내분점을 이용해 hard negative를 generation 하여 metric learning을 좀 더 잘하게 하는 것이었습니다. 처음에 설명해주셨던 방법에서 symmetric 하게 만드는 부분을 이번에는 내분점을 이용했던 방법이었는데 내용적인 측면에서는 앞선 방법과 어떻게 보면 유사하였지만 이전 방법에서 좀 더 나은 성능을 내기 위해 조금 더 추가한 방법이었습니다. 이를 통해 연구에 있어서 기존에 사용하던 방법에서 문제점이나 아쉬웠던 점을 고쳐나가기 위해 새로운 방법을 적용해야한다는 것이 다시 한번 느껴졌습니다. 주로 저 같은 경우에는 평소에 생각하다가 새로운 것을 해보고 싶어서 전혀 새로운 아이디어를 떠올리기는 하는데 실제로 생각을 도전해보면 성능이 좋지 못했던 게 과반수였습니다. 어떻게 보면 이것을 흔히 삽질이라고 말할 수 있으며 남들이 해봤던 삽질이면 안해봐도 되는 것이기 때문에 이를 피하기 위해서는 기존 방법에서 개선할 점은 무엇인지부터 잘 알아보는게 중요하다고는 생각했었습니다. 이러한 생각을 다시금 느끼게 해준 발표가 아니었나싶습니다.
좋은 리뷰 감사합니다. 세미나에서 중요하게 다룬 포인트들이 무엇인지 전체적으로 살펴 볼 수 있었습니다. 세미나 리뷰를 하다보면 너무 이론적인 것에 치우쳐 중요포인트들을 놓치는 경우가 있는거 같습니다. 그런 관점에서 볼때, 리뷰가 도움이 되었습니다.
항상 댓글을 쓸때는 무엇을 질문할지 고민하게됩니다. 질문을 할 것을 찾는 과정에서 글을 조금 더 정독하게 되는거 같습니다. 서론이 길었는데, 그래서 이번에 생각해낸 질문은… “기존에 연구에서 성능 향상을 위해 시도한 방법중 실패했던 예시를 한개 알 수 있을까요?”
t-sne 에 놀라움을 느꼈다는게 좀 의외긴 해. 왜냐면 너무나도 일반적인 시각화라서? 그리고 심지어 김지원 군이 인공지능 텀프로젝트 발표할때도 사용했던 툴이거든;; 어찌되었든 시각화의 중요성을 꺠닫게 된거 같으니 앞으로 연구하면서 좋은 시각화 툴을 잘 활용하길 바래. 결국 좋은 시각화가 interpretable AI 와 가장 관계가 싶으니까.