[카테고리:] X-Review
Paper, Conference, Seminar, API, Code, Dataset 등의 리뷰를 담을 예정입니다.
[ICASSP 2023]Unifying Speech Enhancement and Separation with Gradient Modulation for End-to-End Noise-Robust Speech Separation
본 논문은 speech enhancemeht와 speech separation task를 e2e 방식으로 수행하며, downstream인 separation에 유효한 정보의 손실을 막기 위해 gradient modulation을 사용하는 방법론에 관한 것으로, speech enhancemet를…
[CoRL 2023 oral] VoxPoser: Composable 3D Value Maps for Robotic Manipulation with Language Models
이번 논문은 아주 재밌는 논문 입니다. LLM을 활용해 명시적인 명령어로부터 로봇 조작의 추론 및 명령어 생산하고 VLM(~OVD)을 활용해 로봇을 위한 3차원 공간에 대한 이해를 얻어…
[ACM MM 2022] Reading and Writing: Discriminative and Generative Modeling for Self-Supervised Text Recognition
안녕하세요, 마흔 번째 X-Review입니다. 이번 논문은 2022년도 ACM MM에 게재된 Reading and Writing: Discriminative and Generative Modeling for Self-Supervised Text Recognition입니다. 바로 시작하도록 하겠습니다. 😵…
[CVPR 2024]Open-vocabulary object 6D pose estimation
제가 이번에 리뷰할 6D Pose Estimation 논문도 보다 범용적으로 물체의 자세 정보를 추정하기 위한 연구로, 텍스트 프롬프트가 주어졌을 때 이에 대응되는 관심 객체의 자세정보를 추정하는…
[CVPR 2024] Enhancing Multimodal Cooperation via Sample-level Modality Valuation
pdf code & dataset [2024.07.31 2.2 파트 설명 추가] 저는 현재 multimodal imbalance, multimodal bias와 관련하여 이를 해결하는 방법론을 제안하는 논문을 작성 중에 있습니다. 그런데…
[NeurIPS 2023 Spotlight] 3D-LLM: Injecting the 3D World into Large Language Models
안녕하세요, 마흔번째 x-review 입니다. 이번 논문은 2023년도 NeurIPS에 Spotlight 게재된 3D-LLM: Injecting the 3D World into Large Language Models입니다. 그럼 바로 리뷰 시작하겠습니다 ! 1….
[arXiv 2023] LLM4VG: Large Language Models Evaluation for Video Grounding
안녕하세요, 이번 주 X-Review에서는 23년도 말 arXiv에 게재된 <LLM4VG: Large Language Models Evaluation for Video Grounding> 이라는 논문을 소개해드리겠습니다. 방법론 논문은 아니고, 현존하는 LLM과 Multi-modal…
[CVPR 2021] Propagate Yourself: Exploring Pixel-Level Consistency for Unsupervised Visual Representation Learning
안녕하세요, 허재연입니다. 이번에 다룰 논문은 Microsoft Research Asia에서 작성하여 CVPR2021에 게재된 논문으로, 현재 약 420회 인용되었습니다. 기존의 SimCLR, MoCo 등 Contrastive Learning 계열 Self-Supervised Learning…
[CVPR 2024] DETRs Beat YOLOs on Real-time Object Detection
안녕하세요. 실수로 집에 아이패드를 두고 오는 바람에, 리뷰 작성이 조금 늦어졌습니다. 지난 주 10번째 버전의 Yolo-v10을 리뷰 했었습니다. 해당 리뷰를 읽으셨다면 실험 파트에서 비교군으로 삼던…
[ECCV 2022] Simple Open-Vocabulary Object Detection with Vision Transformers (OWL-ViT)
안녕하세요. 저번 주에는 OWOD 태스크 중 Foundation model을 활용한 FOMO를 리뷰했었는데, 이번 주 리뷰는 FOMO의 베이스라인으로 활용됐던 OWL-ViT에 대해 리뷰를 해보려고 합니다. OWL-ViT는 Open-World Localization을…
최신 댓글