Author: 이 승현
[arXiv 2024]GAPartManip: A Large-scale Part-centric Dataset for Material-Agnostic Articulated Object Manipulation
Abstract articulated object(관절이 존재하여, 변형이 가능한 물체)를 조작하는 것은 embodide AI의 일반화 달성을 위해 중요한 연구로, 기존의 3D vision 연구는 주로 물체의 depth 정보를 인식하고…
[arXiv 202]GEAL: Generalizable 3D Affordance Learning with Cross-Modal Consistency
제가 이번에 리뷰할 논문은 3D Affordance논문으로, 3D 공간에 language 정보를 입히는 3D Gaussian splatting(3DGS, 이에 대한 자세한 설명은 태주님이 리뷰한 이전 X-review를 참고해주세요!)을 이용하였다고 하여…
[CVPR Workshop 2024]What does CLIP know about peeling a banana?
제가 이번에 리뷰할 논문도 Affordance 관련 논문입니다. 자신들의 방법론을 AffordanceCLIP이라 하여 관심이 생겨 읽게 되었습니다. 코드는 따로 공개되어있지 않습니다. Abstract 사람은 도구를 어떻게 사용할지에 대해…
[IROS 2024 Oral]ManipVQA: Injecting Robotic Affordance and Physically Grounded Information into Multi-Modal Large Language Models
제가 이번에 리뷰할 논문은 Affordance 인식을 위해 MLLM을 적용한 방법론으로, 제가 최근 리뷰한 UniAff에서 기존 방법론과의 비교에 활용된 방법론 입니다.(자세한 내용은 이전 리뷰 참고해주세요!) Abstract…
[arXiv 2025] SeqAfford: Sequential 3D Affordance Reasoning via Multimodal Large Language Model
아카이브에 2024년 12월에 개제된 논문입니다. ICLR 2025에 제출했다가 취소한 것으로 보이는데.. sequential 3D affordance reasoning이라는 새로운 task를 제안하였다는 것이 흥미로워 리뷰를 하게 되었습니다. Abstract 3D…
[arXiv 2024]UniAff: A Unified Representation of Affordances for Tool Usage and Articulation with Vision-Language Models
제가 이번에 리뷰할 논문도 Affordance와 관련된 논문으로, 2024년 10월 말에 아카이브에 공개된 논문입니다. Abstract 기존 연구들은 3D motion constraints와 affordance에 대하여 제한적으로 이해하고있으며, 이러한 한계를…
[이승현] 2024년을 돌아보며
안녕하세요. 벌써 2024년이 거의 끝나갑니다. 올해는 저에게 있어 많은 변화가 있던 해가 아닐까 합니다. 먼저 2024년을 맞이하며 했던 다짐을 살펴보고 올 한 해를 어떻게 보냈는지와…
[arXiv 2024] PAVLM: Advancing Point Cloud based Affordance Understanding Via Vision-Language Model
안녕하세요. 제가 이번에 리뷰할 논문은 올해 10월에 공개된 논문입니다. 최근 affordance 관련 연구들을 리뷰하였는데, 이번에 리뷰할 논문은 3D point cloud에서의 Affordance 영역을 찾는 논문이라 읽어보게…
[arXiv2024] SAMPart3D: Segment Any Part in 3D Objects
제가 이번에 리뷰할 논문은 SAM을 3D Part segmentation에 적용한 논문입니다. 11월에 공개된 따끈따끈한 논문으로, 최근 로봇의 grasping 관점에서 인식을 위한 방법론에도 관심을 가지고있다보니, part segmentation에…
[CVPR 2024]GLID: Pre-training a Generalist Encoder-Decoder Vision Model
제가 이번에 리뷰할 논문은 CVPR2024 논문으로, 다양한 task로의 task-agnostic한 사전학습된 encoder-decoder를 만드는 논문입니다. 미학습물체파지 과제에서 기하정보를 기반으로 미학습 물체 후보 선정 및 의사(pseudo) 라벨 생성…
최신 댓글