Skip to content

Robotics and Computer Vision Lab

AI in Sensing, AI in Perception, AI in Action

  • About
    • History
    • Photo
    • Admission
  • Members
  • Publications
    • Patents
  • X-Review
  • X-Diary
  • Peer Review

Profile

김 태주

About Posts
[CoRL 2025] Learning from 10 Demos: Generalisable and Sample-Efficient Policy Learning with Oriented Affordance Frames
  • Posted on: 10/13/2025 –
  • Comments: 1 Comment
[arXiv 2025] OpenHelix: An Open-source Dual-System VLA Model for Robotic Manipulation
  • Posted on: 09/01/2025 –
  • Comments: 2 Comments
[arXiv 2025] DreamVLA: A Vision-Language-Action Model Dreamed with Comprehensive World Knowledge
  • Posted on: 07/28/2025 –
  • Comments: No Comments
2025년 상반기를 마무리하며
  • Posted on: 07/21/2025 –
  • Comments: 4 Comments
[CoRL 2024] 3D Diffuser Actor: Policy Diffusion with 3D Scene Representations
  • Posted on: 07/14/2025 –
  • Comments: No Comments
[IROS 2024] ShapeGrasp: Zero-Shot Task-Oriented Grasping with Large Language Models through Geometric Decomposition
  • Posted on: 06/09/2025 –
  • Comments: 2 Comments
[arXiv 2025] Knowledge Insulating Vision-Language-Action Models: Train Fast, Run Fast, Generalize Better
  • Posted on: 06/02/2025 –
  • Comments: No Comments
[arXiv 2025] Real2Render2Real: Scaling Robot Data Without Dynamics Simulation or Robot Hardware
  • Posted on: 05/26/2025 –
  • Comments: 2 Comments
[CVPR 2025] Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass
  • Posted on: 05/18/2025 –
  • Comments: 2 Comments
[arXiv 2025] π0.5: a Vision-Language-Action Model with Open-World Generalization
  • Posted on: 05/07/2025 –
  • Comments: No Comments
1 2 … 14 15 Older Posts

Conference Deadline

NEW POST

  • [2025 상반기] 산업체 인턴쉽 후기
  • CoRL 2025 참관기
  • [arXiv2025]Does Your Vision-Language Model Get Lost in the Long Video Sampling Dilemma?
  • CoRL 2025 참관기
  • [ICRA 2023]GNM: A General Navigation Model to Drive Any Robot

New Comment

  1. 신 정민 on SmolVLM: Redefining small and efficientmultimodal models10/17/2025

    안녕하세요. Q1: 사전 지식이라 함이 정확히 무엇을 의미하는지는 이해못했으나, VLM을 학습하는데 있어서 결국에는 LLM과 Vision Encoder 부분을 다시 방대한 데이터로…

  2. 신 정민 on SmolVLM: Redefining small and efficientmultimodal models10/17/2025

    안녕하세요. 비디오에서 프레임을 정해진 길이만큼 샘플링한 뒤 개별 프레임에 대해 visual token을 추출합니다. 그 뒤로 visual token들을 temporal axis로 평균을…

  3. 신 정민 on VIRAL: Visual Representation Alignmentfor Multimodal Large Language Models10/17/2025

    안녕하세요. 질문에 답을 드리면 1. 왜 실험에서 visual encoder의 token과 LLM의 visual token끼리 유사도 정량적 측정시 cos sim이 아닌 CKNNA를…

  4. 신 정민 on VIRAL: Visual Representation Alignmentfor Multimodal Large Language Models10/17/2025

    안녕하세요. 제가 기억하기로는 이론적인 분석은 없이 귀납적으로 증명했던 것으로 기억합니다. 라인이 구불구불하여 학습에 노이즈로 작동했다는 말의 의미를 제가 온전히 이해하지…

  5. 이 재찬 on CoRL 2025 참관기10/16/2025

    안녕하세요 석준님, 참관기 읽어주셔서 감사합니다. Video World Model은 저도 학회가서 처음 듣게 된 컨셉인데요. 제가 완벽히 이해하진 못해서, 부정확한 내용이…

  • Sign-in
  • RCV-Calendar
  • RCV-Github
  • Paper R/W
    • Arxiv
    • Deadline
    • Overleaf
  • Coding
    • OnlineJudge
    • Kaggle

포기하지 않는 강한 집념 만이 작은 차이를 만든다.

Design by SejongRCV