Category: X-Review

Paper, Conference, Seminar, API, Code, Dataset 등의 리뷰를 담을 예정입니다.

Posted in X-Review

[2026-동계][조현서] URP를 마치며

안녕하세요. 2026 동계 URP에 참여한 조현서입니다. URP 참여를 고민하는 분들께, 이 글이 많은 도움이 되었으면 합니다. ### URP 지원 동기 ​저는 실생활에 필요한 무언가를 구상하는…

Continue Reading
Posted in X-Review

[2026-동계][강희승] URP를 마치며

안녕하십니까. 이번 2026 겨울 URP 프로그램을 무사히 마치게 된 컴퓨터 공학과 22학번 강희승입니다. 이 글을 통해 저의 경험들과 고민들을 나누어 보려고 합니다. ### 지원 동기…

Continue Reading
Posted in Paper X-Review

[WACV 2023] MixVPR: Feature Mixing for Visual Place Recognition

안녕하세요 3번째 X-review네요. 아마 당분간은 쭉 VPR(visual place recognition)쪽 논문 리뷰를 들고오지 않을까 싶습니다. 오늘 소개드릴 논문은 MixVPR입니다. 간략하게 소개를 드리자면 무거운 transformer 연산 없이도,…

Continue Reading
Posted in X-Review

[CoRL 2025] DexVLA: Vision-Language Model with Plug-In Diffusion Expert for General Robot Control

안녕하세요 최인하입니다. Robot이 다양한 task와 environment 에서 강건하게 작동하도록 하는 것은 robot domain에서 중요한 주제인데요. VLA model이 등장하면서 이러한 문제가 어느정도 해결되는 것처럼 보였습니다. 하지만…

Continue Reading
Posted in Paper X-Review

[arXiv 2025] WorldVLA: Towards Autoregressive Action WorldModel

안녕하세요 오늘은 WorldVLA에 대해서 설명드리도록 하겠습니다. 최근 들어서 계속 VLA 관련 논문들을 읽고 있는데 세계에 대한 일반화? 능력에 대한 부분이 상당히 필요한 것 같다고 느꼈습니다….

Continue Reading
Posted in X-Review

[arXiv 2026] Probing and Bridging Geometry-Interaction Cues for Affordance Reasoning in Vision Foundation Models

해당 논문이 CVPR 2026에 제출된 것 같은데, 아직 정확한 정보 확인은 어렵습니다. 해당 논문은 다양한 VFM에 대하여 affordance 추론 능력에 대하여 분석한 논문입니다. Abstract 저자들은…

Continue Reading
Posted in Paper X-Review

[CVPR 2025]CityWalker Learning Embodied Urban Navigation from Web-Scale Videos

안녕하세요 이번에 리뷰할 논문은 CVPR 2025년에 올라온 CityWalker Learning Embodied Urban Navigation from Web-Scale Videos 라는 논문입니다. 바로 리뷰 시작하도록 하겠습니다. introduction 동적 도시 환경에서의…

Continue Reading
Posted in Paper X-Review

[arXiv2026]Empty Shelves or Lost Keys? Recall Is the Bottleneck for Parametric Factuality

오늘 소개드린 논문은 LLM의 evalutation에 대한 분석과 분석 방법을 다룬 논문입니다. 일반적인 벤치마크는 정확도를 기준으로 평가합니다. 하지만 이는 LLM이 실제로 그 정보에 대한 지식이 없는지(empty…

Continue Reading
Posted in Conference X-Review

[ECCV2024] Self-Supervised Any-Point Tracking by Contrastive Random Walks

Intro 본 논문이 타깃으로 하는 task는 Tracking Any Point (TAP)라는 task로 Deepmind가 작성한 TAP-Vid: A Benchmark for Tracking Any Point in a Video라는 논문에서 처음…

Continue Reading
Posted in X-Review

[ECCV 2024] InternVideo2: Scaling Foundation Models for Multimodal Video Understanding

비디오 진영의 파운데이션 모델(Foundation Model)로 군림하던 InternVideo라는 모델이 있었는데요. 해당 논문에 대한 리뷰는 2023년 임근택 연구원이 읽기 쉽게 잘 정리해주신 걸 확인할 수 있었습니다: [InternVideo…

Continue Reading