[월:] 2024년 08월
[arXiv 2024] AffectGPT: Dataset and Framework for Explainable Multimodal Emotion Recognition
김 주연 08/04/2024 [arXiv 2024] AffectGPT: Dataset and Framework for Explainable Multimodal Emotion Recognition에 댓글 6개
pdf Code&Dataset 안녕하세요! 따근따근한🔥🔥 7월 10일에 arXiv에 등록된 EMER 저자의 후속 논문을 가지고 와봤습니다. EMER 논문이 새로운 감정 인식의 포문을 연 논문이라 생각이 들지만 조금…
[NeurIPS 2023] CoDA: Collaborative Novel Box Discovery and Cross-modal Alignment for Open-vocabulary 3D Object Detection
손 건화 08/04/2024 [NeurIPS 2023] CoDA: Collaborative Novel Box Discovery and Cross-modal Alignment for Open-vocabulary 3D Object Detection에 댓글 2개
안녕하세요, 마흔 한번째 x-review 입니다. 이번 논문은 2023년도 NeurIPS에 게재된 CoDA: Collaborative Novel Box Discovery and Cross-modal Alignment for Open-vocabulary 3D Object Detection입니다. 그럼 바로…
[arXiv 2024] MLLM as Video Narrator: Mitigating Modality Imbalance in Video Moment Retrieval
김 현우 08/04/2024 [arXiv 2024] MLLM as Video Narrator: Mitigating Modality Imbalance in Video Moment Retrieval에 댓글 1개
안녕하세요, 이번 주도 Video Moment Retrieval task와 관련하여 리뷰를 작성해보겠습니다. 오늘 소개해드릴 논문은 올해 6월 arXiv에 게재된 <MLLM as Video Narrator: Mitigating Modality Imbalance in…
[ICML 2021] (CLIP) Learning Transferable Visual Models From Natural Language Supervision
홍 주영 08/04/2024 [ICML 2021] (CLIP) Learning Transferable Visual Models From Natural Language Supervision에 댓글 12개
Vision Language Model(VLM)의 근본인 CLIP 논문에 대해 리뷰해보겠습니다. 아이디어와 코드는 아주아주 간단한데, 현재시간 기준 19,543회의 인용률을 달성할 정도로 어마어마한 파급력을 가져온 논문이라는 것은 누구나 다…
최신 댓글