Author: 이 승현

Posted in Conference X-Review

[IROS 2024 Oral]ManipVQA: Injecting Robotic Affordance and Physically Grounded Information into Multi-Modal Large Language Models

제가 이번에 리뷰할 논문은 Affordance 인식을 위해 MLLM을 적용한 방법론으로, 제가 최근 리뷰한 UniAff에서 기존 방법론과의 비교에 활용된 방법론 입니다.(자세한 내용은 이전 리뷰 참고해주세요!) Abstract…

Continue Reading
Posted in X-Review

[arXiv 2025] SeqAfford: Sequential 3D Affordance Reasoning via Multimodal Large Language Model

아카이브에 2024년 12월에 개제된 논문입니다. ICLR 2025에 제출했다가 취소한 것으로 보이는데.. sequential 3D affordance reasoning이라는 새로운 task를 제안하였다는 것이 흥미로워 리뷰를 하게 되었습니다. Abstract 3D…

Continue Reading
Posted in X-Review

[arXiv 2024]UniAff: A Unified Representation of Affordances for Tool Usage and Articulation with Vision-Language Models

제가 이번에 리뷰할 논문도 Affordance와 관련된 논문으로, 2024년 10월 말에 아카이브에 공개된 논문입니다. Abstract 기존 연구들은 3D motion constraints와 affordance에 대하여 제한적으로 이해하고있으며, 이러한 한계를…

Continue Reading
Posted in X-Diary

[이승현] 2024년을 돌아보며

안녕하세요. 벌써 2024년이 거의 끝나갑니다. 올해는 저에게 있어 많은 변화가 있던 해가 아닐까 합니다. 먼저 2024년을 맞이하며 했던 다짐을 살펴보고 올 한 해를 어떻게 보냈는지와…

Continue Reading
Posted in X-Review

[arXiv 2024] PAVLM: Advancing Point Cloud based Affordance Understanding Via Vision-Language Model

안녕하세요. 제가 이번에 리뷰할 논문은 올해 10월에 공개된 논문입니다. 최근 affordance 관련 연구들을 리뷰하였는데, 이번에 리뷰할 논문은 3D point cloud에서의 Affordance 영역을 찾는 논문이라 읽어보게…

Continue Reading
Posted in Paper X-Review

[arXiv2024] SAMPart3D: Segment Any Part in 3D Objects

제가 이번에 리뷰할 논문은 SAM을 3D Part segmentation에 적용한 논문입니다. 11월에 공개된 따끈따끈한 논문으로, 최근 로봇의 grasping 관점에서 인식을 위한 방법론에도 관심을 가지고있다보니, part segmentation에…

Continue Reading
Posted in Conference X-Review

[CVPR 2024]GLID: Pre-training a Generalist Encoder-Decoder Vision Model

제가 이번에 리뷰할 논문은 CVPR2024 논문으로, 다양한 task로의 task-agnostic한 사전학습된 encoder-decoder를 만드는 논문입니다. 미학습물체파지 과제에서 기하정보를 기반으로 미학습 물체 후보 선정 및 의사(pseudo) 라벨 생성…

Continue Reading
Posted in Paper X-Review

[RA-L 2024]Uncertainty-Aware Suction Grasping for Cluttered Scenes

제가 이번에 리뷰할 논문도 로봇의 파지를 위한 인식연구로, 해당 내용은 사람처럼 쥐는 방식으로 물체를 잡는 게 아닌, 흡입 방식으로 물체를 파지하는 경우를 위한 연구입니다. 각…

Continue Reading
Posted in X-Review

[CoRL 2024 Oral]Retrieval-Based Affordance Transfer for Generalizable Zero-Shot Robotic Manipulation

외부 지식을 활용한 접근법이라는 게, 과제 제안서와 얼라인이 맞는 듯 합니다.. Abstract 해당 논문은 retrieval 기반의 zero-shot 프레임워크인 RAM을 제안하여 다양한 사물과 환경에 대해 일반화…

Continue Reading
Posted in X-Review

[IROS 2024]OVGNet: An Unified Visual-Linguistic Framework for Open-Vocabulary Robotic Grasping

제가 이번에 리뷰할 논문은 시각-언어 정보를 기반으로 대상 객체를 인식하며, 이때 미학습 객체도 인식하고 동일 객체가 존재할 경우 이를 구분하여 인식하는 방법론이라는 것에 흥미가 생겨…

Continue Reading