[월:] 2023년 01월
Self-Supervised Learning에 대해
아주 오랜만에 X-review를 작성하는 거 같습니다.신년이 시작했기 때문에 새 마음 새 뜻으로 열심히 작성 해야겠습니다. 오늘은 Self-Supervised Learning 에 대해 제가 공부 한 내용들을 리뷰하겠습니다.방학동안…
[CVPR 2021] Patch-NetVLAD : Multi-Scale Fusion of Locally-Global Descriptors for Place Recognition
Patch-NetVALD는 local descriptor와 global descriptor의 장점을 모두 결합한 방법으로 기존 netVLAD에서 변형하여 patch level feature를 사용하였다. 또한 multi-scale fusion한 patch features를 사용하여 structure, illumination과 같은…
[CVPR-2021] Patch-NetVLAD: Multi-Scale Fusion of Locally-Global Descriptors for Place Recognition
뜬금없이 Visual place recognition(VPR)을 읽어봤습니다. 읽을 필요는 없다고 하는데… 제가 지금 하려는 일이 물체 검색을 좀 원활하게 해보기 위해 프레임 레벨에서 패치(가칭)단위로 백그라운드를 suppression 할…
[ECCV2022]MultiMAE: Multi-modal Multi-task Masked Autoencoders
이번에 소개드릴 논문은 요새 self-supervised learning에서 핫한 Masked Autoencoder입니다. 근데 이제 Multi-modal과 Multi-task를 곁들인. 혹시 Masked Autoencoder(MAE)에 대해서 아직 잘 모르시는 분들은 저희 연구실의 미래…
[ICML 2021] An Image is Worth 16×16 Words : Transformer for image recognition at scale
Before Review Vision Transformer(ViT) 논문입니다. 요즘 비디오 분야에서도 Transformer 기반의 백본이 활발하게 연구가 되는 추세입니다. 저도 관련해서 계속 follow-up을 하고 있는데 제가 ViT에 대한 detail을…
[NIPS 2022] VideoMAE : Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training
Before Review 사실 제가 지난 리뷰에서 이미지 도메인에서의 MAE를 다뤘는데 그 이유는 바로 VideoMAE를 읽기 위함이었습니다. 그리고 또한 VideoMAE를 읽는 이유는 이번에 비디오 분야에서 개쩌는(?)…
[CVPR 2022] Masked Autoencoders Are Scalable Vision Learners
Before Review 진짜 오랜만에 X-Review 인 것 같습니다. 이번에는 비디오 논문이 아닌 이미지 논문을 읽게 되었습니다. 요즘 Masking Model 들이 많은 연구가 이루어지고 있어서 저도…
<2022년 RCV 연구실 생활을 마무리 하며>
안녕하세요. 이 글에서는 2022년 RCV 생활을 돌아보며 2023년의 목표를 정리하고자 합니다. urp를 마치고 연구실에 들어온 지 4개월이란 시간이 흘렀습니다. 그 동안의 활동을 돌아보니 정말 시간이…
<2022년 RCV 연구실 생활을 마무리 하며>
이제 2023년이 되었습니다. 올해부터 석사생으로 진학하게 되는 만큼, 올 한 해를 더욱 의미 있고 유익하게 보내야겠습니다. 작년을 되돌아보고, 새해를 맞이하는 마음가짐으로 다이어리를 작성해보았습니다. 제가 상반기를…
<2022년 RCV 연구실 생활을 마무리 하며>
12월 한 달은 저의 연구실 생활로 하여금 가장 큰 번뇌의 시간이 아니었나 싶습니다. 이런 저의 12월을 요약하자면… 유아무야 흐지부지 라고나 할 수 있을 것 같습니다….
최신 댓글