Author: 이 승현

Posted in X-Review

[CVPR 2026] Thinking Beyond Labels: Vocabulary-Free Fine-Grained Recognition using Reasoning-Augmented LMMs

Abstract Vocabulary-free fine-grained image recognition은 사람이 사전에 정의한 라벨 집합이 없어도, 동일한 meta-class 내부에서 시각적으로 유사한 세부 카테고리를 구분하는 것을 목표로 합니다. 기존 연구들은 사전에…

Continue Reading
Posted in X-Review

[CVPR 2026]AffordGen: Generating Diverse Demonstrations for Generalizable Object Manipulation with Affordance Correspondence

Abstract 최근 로봇 조작에서 imitation learning을 활용한 연구들이 성공을 이루고 있으나, 제한적인 데이터 다양성으로 인해 기하학적 변형에는 제약이 있습니다. 해당 논문은 3D 생성 모델과 VFMs를…

Continue Reading
Posted in X-Review

[arXiv2026] AffordSim: A Scalable Data Generator and Benchmark for Affordance-Aware Robotic Manipulation

Abstract 시뮬레이션 기반의 데이터 생성 방식이 로봇 조작 정책 학습의 지배적 흐름이 되었습니다. 그러나 기존의 방식들은 affordance 정보를 trajectory에 포함하지 못하며, 이로 인해 특정 기능이…

Continue Reading
Posted in X-Review

[AAAI 2026 (oral)]A3D: Adaptive Affordance Assembly with Dual-Arm Manipulation

제가 연구하고 있는 분야의 affordance의 실용성을 보이기 위해서는 장기 작업으로의 적용이 필요하다는 생각을 하고 있습니다. 해당 논문은 실제 로봇으로 적용하여, 가구 조립이라는 장기 작업을 수행하는…

Continue Reading
Posted in X-Review

[AAAI 2026] Decompose and Attribute: Boosting Generalizable Open-Set Object Detection via Objectness Score

Abstract Open-Set Object Detection(OSOD)은 알려진 카테고리와 본적 없는 카테고리의 물체를 탐지하는 것을 목표로 합니다. 실제 환경에서는 도메인 변화와 새로운 객체 카테고리 추가가 동시에 이루어지는 경우가…

Continue Reading
Posted in X-Review

[CVPR 2026]Affostruction: 3D Affordance Grounding with Generative Reconstruction

제가 이번에 리뷰할 논문은 CVPR 2026에 accpet된 것으로 보이는 논문입니다. 이미지나 텍스트 프롬프트가 입력되었을 때, 3D asset을 생성하는 TRELLIS(CVPR 2026 Spotlight)연구를 기반으로 하고있으며, 해당 논문은…

Continue Reading
Posted in X-Review

[arXiv 2026] VideoAfford: Grounding 3D Affordance from Human-Object-Interaction Videos via Multimodal Large Language Model

해당 논문의 1저자가 제가 이전에 리뷰한 Affordance-R1의 1저자이기도 하며 SeqAfford, A4-agent, FSAG의 공동 저자라 찾아보다 읽게 되었습니다. 그 외에도 최근 다양한 학술대회에 논문을 많이 작성한…

Continue Reading
Posted in X-Review

[CVPR 2025]AffordDP: Generalizable Diffusion Policy with Transferable Affordance

Abstract 해당 논문은 일반화 가능한 로봇 조작을 위해 Diffusion 기반의 모방학습에 Affordance 개념을 추가한 AffordDP를 제안합니다. Diffusion 기반의 policy는 로봇 작업에서 인상적인 성능을 보여주었으나, Out-of-Domain에…

Continue Reading
Posted in X-Review

[ICCV 2025]RAGNet: Large-scale Reasoning-based Affordance Segmentation Benchmark towards General Grasping

Abstract 로봇 파지 시스템은 사람의 지시에 따라 다양한 시나리오에서 정확한 물체를 파지할 수 있어야 합니다. 그러나 기존 연구들은 추론이 포함된 대규모 affordance 데이터셋의 부족으로 인해…

Continue Reading
Posted in X-Review

[arXiv 2026] Probing and Bridging Geometry-Interaction Cues for Affordance Reasoning in Vision Foundation Models

해당 논문이 CVPR 2026에 제출된 것 같은데, 아직 정확한 정보 확인은 어렵습니다. 해당 논문은 다양한 VFM에 대하여 affordance 추론 능력에 대하여 분석한 논문입니다. Abstract 저자들은…

Continue Reading