Author: 안 우현

Posted in Paper X-Review

[RSS 2022]ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints

안녕하세요. 이번에 소개드릴 논문도 UC 버클리 Sergey Levine 교수님 연구실에서 2022년에 발표한 ViKiNG: Vision-Based Navigation with Kilometers-Scale Generalization이라는 논문입니다. 어쩌다보니 리뷰를 해당 연구실에서 낸 논문만…

Continue Reading
Posted in Paper X-Review

[ICRA 2024]NoMaD : Goal Masked Diffusion Policies for Navigation and Exploration

안녕하세요. 이번에 소개드릴 논문은 ICRA 2024에 게재된 NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration이라는 논문입니다. GNM, ViNT에 이어 UC 버클리 Sergey Levine 교수님…

Continue Reading
Posted in Paper X-Review

[CoRL 2023] ViNT: A Foundation Model for Visual Navigation

안녕하세요 이번에 리뷰할 논문은 2023년도에 CoRL에 게재된 ViNT: A Foundation Model for Visual Navigation이라는 논문입니다. 저저번에 리뷰했던 GNM: A General Navigation Model to Drive Any…

Continue Reading
Posted in Paper X-Review

[ICRA 2021]ViNG: Learning Open-World Navigation with Visual Goals

안녕하세요. 이번에 리뷰할 논문은 ViNG: Learning Open-World Navigation with Visual Goals라는 논문 입니다. 이 논문은 2020년 ICRA에 게재된 논문이고 Visual Goal-Conditioned Navigation을 다룹니다. 사실 지지난번에…

Continue Reading
Posted in Paper X-Review

[ICLR 2018]SEMI-PARAMETRIC TOPOLOGICAL MEMORY FOR NAVIGATION

안녕하세요 이번에 리뷰로 들고온 논문은 ICLR 2018년에 게재된 Semi-Parametric Topological Memory For Navigation이라는 논문입니다. 비록 나온지 오래된 논문이지만 navigation중에서도 visual navigation 그 중에서도 기하학적인 지도를…

Continue Reading
Posted in Paper X-Review

[ICRA 2023]GNM: A General Navigation Model to Drive Any Robot

안녕하세요. 이번에 소개드릴 논문은 Visual Navigation 분야의 연구로 ICRA 2023에 게재된 GNM: A General Navigation Model to Drive Any Robot 입니다. Visual Navigation 분야는 저에게…

Continue Reading
Posted in Paper X-Review

[CVPR 2025]Token Cropr Faster ViTs for Quite a Few Taskscopr

안녕하세요 이번주도 저번 주에 이어서 토큰 프루닝 관련 논문을 들고 왔습니다. 아마 이번주를 마지막으로 다음 주 부터는 토큰 프루닝 관련 논문보다는 다른 분야의 논문을 찾아서…

Continue Reading
Posted in Paper X-Review

[NeurIPS 2021]DynamicViT: Efficient Vision Transformers with Dynamic Token Sparsification

안녕하세요. 지난주에 이어 이번에도 토큰 프루닝(token pruning) 관련 논문을 들고 왔습니다. 오늘 소개해 드릴 논문은 2021년 NeurIPS에 발표된 DynamicViT: Efficient Vision Transformers with Dynamic Token…

Continue Reading
Posted in Paper X-Review

[AAAI 2025]HiRED: Attention-Guided Token Dropping for Efficient Inference of High-Resolution Vision-Language Models

안녕하세요. 이번 주도 지난번 토큰 프루닝 관련 주제에 이어서 현재 제가 실험 중에 참고했던 논문 한 편을 소개해드리려고 합니다. 고해상도 이미지를 다루는 Vision-Language Model(VLM)이 점점…

Continue Reading
Posted in Paper X-Review

[CVPRW 2024]ToSA: Token Selective Attention for Efficient Vision Transformers

안녕하세요 이번 주도 지난 번에 이어서 토큰 푸르닝 관련 논문을 소개해드리려고 합니다. 생각보다 토큰 프루닝이라는 친구가 단순한듯 어렵게 느껴지는 친구 같습니다. 지 지난 주에 리뷰했던…

Continue Reading