Author: 김 현우

Posted in M.S. X-Diary

ACM MM ’24 학회 참관기

안녕하세요, 오늘은 논문 리뷰 대신 저번 주 다녀온 ACM Multimedia 학회 후기를 작성해보려 합니다. 학회는 호주에 있는 멜버른에서 10.28-11.1 총 5일간(월-금) 개최되었으며, 월요일과 금요일에는 워크샵,…

Continue Reading
Posted in Paper X-Review

[AAAI 2024] Exploiting Auxiliary Caption for Video Grounding

안녕하세요, 이번 주 X-Review에는 24년도 AAAI에 게재된 논문 <Exploiting Auxiliary Caption for Video Grounding>을 소개해드리겠습니다. 비디오 도메인의 Video Grounding task를 수행하며, 중국 북경대의 연구 결과지만…

Continue Reading
Posted in Paper X-Review

[MM 2024] Let Me Finish My Sentence: Video Temporal Grounding with Holistic Text Understanding

안녕하세요, 오늘의 X-Review에서는 24년도 ACM MM 학회에 게재된 논문 <Let Me Finish My Sentence: Video Temporal Grounding with Holistic Text Understanding>을 소개해드리고자 합니다. 카이스트의 정준선…

Continue Reading
Posted in Paper X-Review

[ICLR 2024] CLIPSelf: Vision Transformer Distills Itself for Open-Vocabulary Dense Prediction

안녕하세요. 이번 주 X-Review에서는, 24년도 ICLR에 Spotlight으로 게재된 <CLIPSelf: Vision Transformer Distills Itself for Open-Vocabulary Dense Prediction>이라는 논문을 소개해드리겠습니다. ICLR Spotlight으로 지정된 논문인데, 통찰력 있는…

Continue Reading
Posted in Paper X-Review

[arXiv 2024] QD-VMR: Query Debiasing with Contextual Understanding Enhancement for Video Moment Retrieval

안녕하세요 이번 주 X-Review는 arXiv에 업로드되어있는 QD-VMR이라는 방법론입니다. 비디오 분야의 Moment Retrieval task를 수행하며, 포맷상 25년도 AAAI에 제출된 것으로 보입니다. 해결하고자 하는 문제가 제가 지금…

Continue Reading
Posted in Paper X-Review

[ECCV 2024] BAM-DETR: Boundary-Aligned Moment Detection Transformer for Temporal Sentence Grounding in Videos

안녕하세요. 이번주 X-Review는 오랜만에 다시 비디오의 Moment Retrieval task 논문으로 돌아왔습니다. 소개해드릴 BAM-DETR이라는 논문은, 보통 Moment Retrieval과 Highlight Detection이라는 2가지 task를 동시에 수행하는 DETR 기반의…

Continue Reading
Posted in Paper X-Review

[NeurIPS 2022] Multimodal Contrastive Learning with LIMoE: the Language-Image Mixture of Experts

안녕하세요. 이번 주 X-Review에서는 22년도 NeurIPS에 게재된 논문 <Multimodal Contrastive Learning with LIMoE: the Language-Image Mixture of Experts>를 소개해드리겠습니다. 본 논문은 현재 구글 딥마인드로 병합된…

Continue Reading
Posted in Paper X-Review

[arXiv 2024] MLLM as Video Narrator: Mitigating Modality Imbalance in Video Moment Retrieval

안녕하세요, 이번 주도 Video Moment Retrieval task와 관련하여 리뷰를 작성해보겠습니다. 오늘 소개해드릴 논문은 올해 6월 arXiv에 게재된 <MLLM as Video Narrator: Mitigating Modality Imbalance in…

Continue Reading
Posted in Paper X-Review

[arXiv 2023] LLM4VG: Large Language Models Evaluation for Video Grounding

안녕하세요, 이번 주 X-Review에서는 23년도 말 arXiv에 게재된 <LLM4VG: Large Language Models Evaluation for Video Grounding> 이라는 논문을 소개해드리겠습니다. 방법론 논문은 아니고, 현존하는 LLM과 Multi-modal…

Continue Reading
Posted in Paper X-Review

[ICCV 2023] Verbs in Action: Improving Verb Understanding in Video-Language Models

제가 현재 연구주제로 잡은 task인 Moment Retrieval은 사용자의 텍스트 쿼리를 입력받아 길고 다양한 컨텐츠를 포함하고 있는 untrimmed video 내에서 상응하는 구간을 찾아내는 것이 목적입니다. 처음에는…

Continue Reading