[카테고리:] X-Review
Paper, Conference, Seminar, API, Code, Dataset 등의 리뷰를 담을 예정입니다.
[ICLR 2025] How new data permeates LLM knowledge and how to dilute it
안녕하세요. 박성준 연구원입니다. 오늘의 리뷰는 ICLR 2025에 Spotlight에 선정된 연구입니다. Google DeepMind에서 게재한 논문으로 요즘 핫한(?) LLM에 대한 내용으로 LLM에 주입되는 새로운 정보가 기존 지식에…
[ECCV 2024] Scene-Graph ViT: End-to-End Open-Vocabulary Visual Relationship Detection
안녕하세요, 허재연입니다. 오늘 리뷰할 논문은 ECCV 2024에 게재된 논문으로, Visual Relationship DetectionI(VRD)를 open-vocabulary로 수행하는 Scene-Graph ViT라는 방법론을 제안한 논문입니다. Visual Relationship Detection은 장면 이해를 수행하기…
[Arxiv 2025]AffordanceSAM: Segment Anything Once More in Affordance Grounding
제가 이번에 리뷰할 논문은 최근 아카이브에 공개된 affordance segmentation 관련 논문입니다. Abstract 실세계로의 응용을 위해서는 unseen object 및 affordance 기능에 대한 일반화가 중요하지만, 최근 연구는…
[arXiv 2025] RoboVerse: Towards a Unified Platform, Dataset and Benchmark for Scalable and Generalizable Robot Learning
안녕하세요, 이번엔 2025년 4월에 나온 따끈따끈한 논문을 리뷰해보려고 합니다. 지난주에 Behavior-1K논문을 리뷰했었는데, Behavior-1K는 수많은 asset을 제작해서 하나의 거대한 데이터셋을 제작했다면, 이번에 리뷰할 논문은 여러 시뮬레이터에서…
[CVPR 2024] OMNIPARSER: A Unified Framework for Text Spotting, Key Information Extraction and Table Recognition
안녕하세요, 60번째 X-Review입니다. 이번 논문은 2024년도 CVPR에 올라온 OMNIPARSER: A Unified Framework for Text Spotting, Key Information Extraction and Table Recognition논문입니다. 바로 시작하도록 하겠습니다. 🎠…
[CVPR 2024] ECoDepth: Effective Conditioning of Diffusion Models for Monocular Depth Estimation
안녕하세요, 64번째 x-review 입니다. CVPR 2024년도에 게재된 Monocular depth estimation 논문 입니다. 그럼 바로 리뷰 시작하겠습니다 ! 1. Introduction 보통 Monocular Depth Estimation이라고 칭하는데 본…
[ECCV 2020] End-to-End Object Detection with Transformers
안녕하세요 류지연입니다. 오늘 리뷰할 논문은 이전에 작성했던 TESTR 모델의 근간이 되는 DETR입니다. TESTR을 읽을 때 DETR에 대해서 알고자 간단하게 블로그만을 참고했었는데요 깊게 알고자 논문을 읽고…
[CVPR 2022] SGTR: End-to-end Scene Graph Generation with Transformer
안녕하세요, 허재연입니다. 이번에는 Scene Graph Generation(SGG)분야 논문을 들고 왔습니다. CVPR 2022년에 게재된 논문으로, DETR의 철학을 많이 참고한 느낌의 방법론입니다. task가 아직 저에게 꽤 낯설고 수식도…
[arXiv 2025] π0.5: a Vision-Language-Action Model with Open-World Generalization
이번 리뷰 논문은 Physical AI를 선도 하는 그룹인 Physical intelligence의 최신 VLA 논문으로 π0의 후속 논문입니다. 굉장히 fancy한 접근과 파격적인 실험 결과를 보여준 논문입니다. 아래의…
CLIP-MOE: TOWARDS BUILDING MIXTURE OF EXPERTS FOR CLIP WITH DIVERSIFIED MULTIPLET UPCYCLING
안녕하세요. 이번 리뷰에서는 CLIP 모델에 Mixture of Expert(MoE)를 결합한 확장 연구를 소개하고자 합니다. 비록 2025 ICLR에서는 Reject된 논문이지만 모델 구조와 리뷰어들의 코멘트를 참고하여, 어떤 방식으로…
최신 댓글