[일:] 2024년 09월 02일
[CVPR 2023]SeiT: Storage-Efficient Vision Training with Tokens Using 1% of Pixel Storage
안녕하세요 이번에 소개할 논문은 2023년 네이버 AI에서 발표한 논문으로 지난 KCCV 학회에 참관했을때 포스터 섹션에서 본 논문입니다. 이 논문에서는 이미지넷과 같이 저장 공간이 많이 필요한…
[NeurIPS 2021] Learning Debiased Representation via Disentangled Feature Augmentation
안녕하세요. de-biasing 방법에 대한 세 번째 논문입니다. 소개했던 앞선 연구에서는 bias 특징을 갖지 않는 bias-conflicting 데이터에 대한 학습 가중치를 높여 de-biasing을 진행했습니다. 그러나 bias-conflicting 데이터는…
[ICLR2024] Multi-granularity Correspondence Learning from Long-term Noisy Videos – Part 1
안녕하세요. 박성준 연구원입니다. 오늘 리뷰할 논문은 ICLR2024에 게재된 논문으로 video-paragraph retrieval, cilp-caption retrieval, text-to-video retrieval 등 text와 video의 align을 맞추는 tasks들을 전반적으로 다룬 논문으로 텍스트와…
[IROS 2024]OVGNet: An Unified Visual-Linguistic Framework for Open-Vocabulary Robotic Grasping
제가 이번에 리뷰할 논문은 시각-언어 정보를 기반으로 대상 객체를 인식하며, 이때 미학습 객체도 인식하고 동일 객체가 존재할 경우 이를 구분하여 인식하는 방법론이라는 것에 흥미가 생겨…
[CVPR 2023] DPText-DETR: Towards Better Scene Text Detection with Dynamic Points in Transformer
안녕하세요, 마흔세 번째 X-Review입니다. 이번 논문은 2023년도 CVPR에 게재된 DPText-DETR: Towards Better Scene Text Detection with Dynamic Points in Transformer 논문입니다. 바로 시작하도록 하겠습니다. 🦩…
[ECCV 2024] Grounding DINO: Marrying DINO with Grounded Pre-Training for Open-Set Object Detection
저는 다시 Vision Language Model (VLM) 에 대한 리뷰를 진행해보도록 하겠습니다. VLM의 근본, 조상 격인 CLIP에 대한 리뷰는 아래 링크에서 확인하실 수 있으니, 아직 CLIP에…
최신 댓글