Author: 신 정민
[CVPR2021] The Temporal Opportunist: Self-Supervised Multi-Frame Monocular Depth
이번 논문은 Monodepth1&2를 제안한 Godard의 새로운 Depth 논문입니다. 데이터 셋의 부족을 해결하고자 Self-supervised learning 방식으로 논문들을 작성하더니 이제는 비디오 프레임을 입력으로 활용하여 깊이 추정을 하는…
[CVPR2021]Three ways to improve semantic segmentation with self-supervised depth estimation.
이번 논문은 Semantic Segmentation 관련 논문입니다. 그런데 Self-supervised monocular depth estimation을 통한 transfer learning & multi-task learning과 active learning과 data augmentation을 곁들인. 하나의 논문 안에…
[CVPR2021]Encoding in Style: a StyleGAN Encoder for Image-to-Image Translation
이번 논문은 Image Generation, Image to Image Translation 쪽 분야 논문입니다. Image Generation 분야에서 매우 유명한 StyleGAN을 기반으로 자신들이 제안하는 새로운 Encoder를 통해 Image Translation까지…
[ICCV2021] AdaAttn : Revisit Attention Mechanism in Arbitrary Neural Style Transfer
오랜만에 Style Transfer 관련 논문을 가져왔습니다. ICCV2021에 게제된 논문으로 논문 제목을 딱 보면 style transfer에서 가장 잘 알려진 방법론인 Adaptive Instance Normalization에 Attention Mechanism을 적절힌…
[NeurIPS2021]HRFormer: High-Resolution Transformer for Dense Prediction
이번에 리뷰할 논문은 NeurIPS2021에 게제된 HRFormer라는 논문입니다. 이름을 딱 보면 제가 앞전에 리뷰한 HRNet에서 CNN을 transformer로 바꾼 느낌이 살살 납니다. HRNet도 정말 충격적이고 좋다고 생각했는데…
보호된 글: TransDSSL-Transformer based Depth Estimation via Self-Supervised Learning
보호하고 있는 글이라서 요약이 없습니다.
[TPAMI2020] Deep High-Resolution Representation Learning for Visual Recognition
이번 리뷰는 TPAMI2020에 게재된 논문으로 저에게 상당히 충격을 준 논문입니다. 주제는 High Resolution 표현을 잘 살리는 backbone 네트워크이며 저같은 경우에는 Dense level prediction task를 주요…
[ECCV2018] Unified Perceptual Parsing for Scene Understanding
이번에 리뷰할 논문은 다소 옛날? 논문인 2018년도 논문으로 가져와봤습니다. 해당 논문을 알게 된 계기는 Swin-transformer가 segmentation을 평가할 때 사용한 decoder로 해당 논문의 네트워크를 사용했다고 해서…
[ICCV2021] Revealing the Reciprocal Relations between Self-Supervised Stereo and Monocular Depth Estimation
오늘 리뷰할 논문은 역시나 Self-supervised Depth Estimation 논문입니다. Abstract 기존의 Depth Estimation 방법론들은 학습에 사용할 수 있는 데이터의 종류에 따라 분야의 경계를 명확히 해왔습니다. 예를들어…
[ICCV2021] FaPN : Feature aligned Pyramid Network for Dense image Prediction
이번에 리뷰할 논문의 주제는 뜬금없는 Segmentation입니다. 사실 Transformer 백본 설명할 때도 Segmentation에 대한 결과를 보였기 때문에 그렇게 뜬금없지는 않지만, 해당 논문의 contribution은 백본이 아닌 모듈에…
최신 댓글