[월:] 2023년 09월
[CVPR 2021] Understanding the Behaviour of Contrastive Loss
안녕하세요, 허재연입니다. 한동안 Contrastive Learning을 활용한 Representation Learning 논문을 쭉 읽었었는데요, 결국 해당 방법론들의 설계 핵심 중 큰 부분이 contrastive loss에 있었지만서도 loss에 대한 충분한…
[CVPR 2021] 3D Object Detection with Pointformer
안녕하세요, 열네번째 x-review 입니다. 이번 논문은 CVPR 2021에 게재된 Pointformer로 indoor와 outdoor 환경에서 모두 사용할 수 있도록 설계된 3D Object detection을 위한 백본 네트워크 입니다. 그럼…
[AAAI-2021]MANGO: A Mask Attention Guided One-Stage Scene Text Spotter
안녕하세요, 열 네 번째 X-Review입니다. 이번 논문은 AAAI 2021에 게재된 MANGO:A Mask Attention Guided ONe-Stage Scene Text Spotter입니다. 바로 리뷰 시작하겠습니다 🫥 1. Introduction 전통적인…
[ICASSP 2022] Multi-Lingual Multi-Task Speech Emotion Recognition Using wav2vec 2.0
안녕하세요. 이번 논문은 speech emotion recognition 입니다. 기존에 가져왔던 논문과는 달리 multi-lingual와 관련한 논문인데요. 재밌게 읽으셨으면 좋겠습니다. 그럼 리뷰 시작합니다. <Introduction> Speech Emotion Recognition (SER)…
[CVPR 2023] Fine-Tuned CLIP Models are Efficient Video Learners
안녕하세요. 오늘 소개해드릴 논문은 최근 유행하는 형태의 제목을 가지고 있는 23년도 CVPR 논문, <Fine-Tuned CLIP Models are Efficient Video Learners>입니다. 최근 Action Localization에 CLIP representation을…
[RA-L 2021] Category-Level Metric Scale Object Shape and Pose Estimation
안녕하세요, 이번에도 6D pose estimation 관련 논문입니다. NOCS를 이전에 리뷰를 했었는데, NOCS를 이용한 +something을 한다고 하길래 읽어보았습니다. 해당 논문은 KAIST RCV Lab.에서 작성된 논문이라 어려워보여도 읽어보려고…
[CVPR 2022] Knowledge distillation: A good teacher is patient and consistent
Abstract 저자들은 cv분야에서 높은 정확도를 보여주는 sota모델들과 실제 사용되고 있는 affordable한 모델 간의 격차가 증가하고 있다고 지적합니다. 논문의 저자들은 이러한 두 가지 타입의 모델간의 격차가…
[CVPR 2022] Video Frame Interpolation Transformer
안녕하세요. 오늘도 지난주 읽은 논문과 동일한 Task인 video frame interpolation을 가져왔습니다. 지난번 논문이 CVPR 2023이고, 이 논문은 CVPR 2022의 SOTA 논문이라서 아마 최근 트랜드를 파악하기…
[CVPR 2023] Distilling Vision-Language Pre-training to Collaborate with Weakly-Supervised Temporal Action Localization
이런 분들께 이 논문을 추천드립니다. Weakly Supervised Temporal Action Localization의 최신 방법론이 궁굼하신 분 CLIP을 temporal action localization에 응용하는 방법이 궁굼하신 분 상호 보완적인 두…
[ICCV 2021] Channel-wise Knowledge Distillation for Dense Prediction
안녕하세요. 항상 Domain Adaptation 관련 논문만 리뷰하다가 오랜만에 Knowledge Distillation 논문을 리뷰하게 되었습니다. 평소에, 그리고 최근에 실험을 하면서도 종종 느꼈던 점인데 segmentation task에서 대부분의 방법론들이…
최신 댓글