Author: 신 정민
[CVPR2022] SimMIM: a Simple Framework for Masked Image Modeling
이번에 소개드릴 논문은 CVPR2022에 게재된 SimMIM이라는 논문입니다. 논문에서 다루는 task는 Masked AutoEncoder + Self-supervised Learning이며 방법론 자체에 큰 아이디어가 있다기 보다는 SSL based MAE에 대한…
[AAAI2023](Oral) Compact Transformer Tracker with Correlative Masked Modeling
이번에 작성하게 될 논문은 AAAI2023 oral paper로 선정된 논문으로 task는 object tracking 관련 논문입니다. object tracking에 관심이 생겨서 읽게 된 논문은 아니고, 성능 향상을 위해…
[CVPR2022] Masked Feature Prediction for Self-Supervised Visual Pre-Training
이번에 소개드릴 논문은 Facebook AI Research 팀에서 쓴 Masked Feature Prediction(MaskFeat)이라는 논문입니다. 해당 논문도 Masked Autoencoder(MAE)에 대한 방법론으로, 이 논문에서 다루고자하는 것은 Reconstruction하는 대상을 무엇으로…
문체부과제 제안서 작성 관련
안녕하세요. 이번 주는 제안서 작업 때문에 x리뷰 대신 x-diary로 작성하고자 합니다. 문체부과제 내용 일단 이번에 새로 제안서를 쓴 과제의 과제명은 “디지털 3D 에셋의 지능형 축적…
[Arxiv2022] Masked Autoencoders are Robust Data Augmentors
이번에 소개드릴 논문은 Self-supervised Learning으로 학습한 MAE를 data augmentation으로 활용해서 high-level recongnition task를 더 잘 수행하도록 학습시켜보자? 라는 방법론입니다. 컨셉 자체가 상당히 간단하여서 간단히 리뷰…
[NeurIPS2022] Croco: Self-supervised Pre-training for 3D Vision tasks by Cross-view Completion
이번에 소개드릴 논문은 네이버 랩스 유럽팀에서 연구한 CroCo라는 논문입니다. 분야는 핫하디 핫한 Masked AutoEncoder(MAE)를 기반으로 한 Self-supervised learning 연구이며, 네이버 랩스다 보니 3D Geometry 분야에…
[ECCV2022]MultiMAE: Multi-modal Multi-task Masked Autoencoders
이번에 소개드릴 논문은 요새 self-supervised learning에서 핫한 Masked Autoencoder입니다. 근데 이제 Multi-modal과 Multi-task를 곁들인. 혹시 Masked Autoencoder(MAE)에 대해서 아직 잘 모르시는 분들은 저희 연구실의 미래…
Self-supervised Learning
이번에 리뷰할 논문들은 모두 Self-supervised Learning 관련입니다. 예전부터 관심을 가지던 분야기도 했었고, 조만간 관련 분야로 연구를 할 수도 있을 것 같아서 공부를 하고 있습니다. 물론…
[ICLR2019] ImageNet-Trained CNNs are Biased Towards Texture; Increasing Shape Bias Improves Accuracy And Robustness
이번에 소개드릴 논문은 ICLR2019년에 게재된 논문으로 상당히 재밌는 논문입니다. 내용은 제목에서도 볼 수 있다시피, ImageNet으로 학습된 CNN은 texture의 편향이 되어 있으며, shape에 편향되도록 할 경우…
[CVPR2022] Toward Practical Monocular Indoor Depth Estimation
이번에 작성할 논문은 Indoor 환경에서의 Monocular Depth Estimation 분야입니다. 제목에서도 알 수 있다시피, Indoor Depth Estimation을 보다 더 실용적으로 수행할 수 있도록 하기 위해, self-supervised…
![[ECCV2022]MultiMAE: Multi-modal Multi-task Masked Autoencoders](http://server.rcv.sejong.ac.kr:8080/wp-content/uploads/2023/01/image-10-480x360.png)
안녕하세요, 인택님 좋은 리뷰 감사합니다. 우선 slot attention이란 결국 객체 수 만큼의 slot 개수를 설정해놓고, 각 slot이 이미지 내 객체들을…