너무 많은 시간이 지나고 리뷰를 하는것 같습니다.
이전에 몇번의 초청 세미나를 들었었는데요, 항상 도입 부분만 이해가 가고 그 이후로의 이야기는 따라가기 힘든 느낌이 있었습니다. 지난 네이버 세미나는 그래도 들리는것이 좀 있었습니다.
지금 창의학기제에서 visual localization을 진행하며 NetVLAD를 공부 중이였어서 그런지, triplet loss 처럼 그래도 조금의 지식은 있는 내용을 들으며 새로운 느낌을 느낄 수 있었습니다. 그럼에도 metric learning에 생소한 느낌이 들었습니다. 공부가 부족한 탓이였겠죠.
지금까지 새로운 기법이라 함은 보통, 레이어를 추가한다거나, 같은 layer를 여러번 타는등 학습과정을 달리 한다거나 하는 방법처럼 네트워크의 구조를 다르게 하는 방법을 통해 성능을 높힌 것이 거의 대부분이였던것 같습니다.
하지만 이번 세미나에서는 학습 방법 (특히 loss function 적용에 있어서)을 달리하는 것으로 성능이 크게 향상되는것을 볼 수 있었습니다. 이러한점이 좀 새로웠습니다.
아직 접해본 분야가 classification와 object detection을 크게 벗어나지 못해서, 세미나의 내용도 기존의 방법론을 발전시킨 것인 만큼, 이미 그런 논문이 많은데 견문이 좁아 새롭다고 느낀 것일 수 있습니다.
아는만큼 보인다고, 사실 세미나를 들을때, NetVLAD의 triplet loss에 대해 자세히 알고있지는 않아, 세미나 내용을 제대로 이해하지 못했습니다.
특히 데이터에 수직인 hard negative를 생성하는 등 수학적 부분을 통해 가설을 증명하는것이 좀 어려웠습니다. 저의 수학 능력이 너무 떨어지는건 아닌가 하는 생각도 들었습니다.
이번 창의학기제의 Image retrieval 부분에 Embedding Expansion과 Symmetrical Synthesis를 적용해보고싶은데, 지금 다시 세미나를 들으면 그때보다 더 잘 이해하며 들을 수 있지 않을까, 가져갈 수 있는것이 더 많지 않을까 하는 생각에 아쉬움이 듭니다. 공부를 더 해야겠다는 생각이 듭니다.
앞으로는 세미나 리뷰 역시 자기 반성적인 리뷰보다 타인인이 리뷰를 읽고 도움이 되는 리뷰였으면 합니다.