안녕하세요 재윤님 답글 감사합니다. 우선 질문에 대해서 생각하신게 맞고 CNN 을 타고나온 output 들이 이미 embedding vector 의 형태이므로 feature…
안녕하세요, 인택님 좋은 리뷰 감사합니다. 우선 slot attention이란 결국 객체 수 만큼의 slot 개수를 설정해놓고, 각 slot이 이미지 내 객체들을…
안녕하세요 영규님 질문 감사합니다!! 좀 더 풀어서 설명해보겠습니다. 맞습니다. UMI에서 bimanual manipulation task를 수행할 떄 성공률을 크게 향상시키는 부분으로 relative…
안녕하세요 승현님 질문 감사합니다!! Q(1) 제가 리뷰에서 슈욱 넘어간 부분이 있어서 설명해보면 Fig.8 부분에서 No mirror 부분이 side mirror를 사용하지…
안녕하세요 석준님 리뷰 감사합니다 ~! 한가지 궁금한게 있는데요! "서로 다른 query라도 비슷한 attention map을 갖는다”라는 관찰이 결국 이미지에서 비슷한 부분이나…
포기하지 않는 강한 집념 만이 작은 차이를 만든다.
네이버 랩스 발표자료라도 올립시다. 영상이 있으면 더욱 좋구요.