Author: 허 재연
[ICLR 2018] Active Learning For Convolutional Neural Networks: A Core-Set Approach
안녕하세요, 허재연입니다. 이제 슬슬 논문 읽는 분야를 Representation Learning에서 Active Learning(AL)으로 옮기려 하고 있습니다. 앞으로 한동안은 AL, MAE 관련 리뷰를 작성하지 않을까 싶습니다. 제가 AL의…
[CVPR 2021] Understanding the Behaviour of Contrastive Loss
안녕하세요, 허재연입니다. 한동안 Contrastive Learning을 활용한 Representation Learning 논문을 쭉 읽었었는데요, 결국 해당 방법론들의 설계 핵심 중 큰 부분이 contrastive loss에 있었지만서도 loss에 대한 충분한…
[CVPR 2020] Momentum Contrast for Unsupervised Visual Representation Learning
이번에도 Representation Learning 논문을 들고 왔습니다. MoCo는 Kaiming He 등의 저자들이 Facebook AI Research에서 낸 논문으로, contrastive 기법을 이용한 self-supervised learning 방법들 중 SimCLR과 함께…
[ICAI 2022] Contrastive Self-Supervised Learning: A Survey on Different Architectures
안녕하세요, 허재연입니다. self-supervised learning 중 contrastive learning을 기반으로 하는 방법이 널리 사용되고 있는데, 어떤 방법론이 많이 사용되는 방법인지, 각 장단점은 무엇인지 판단하기 쉽지 않아 관련…
[NeurIPS 2021] Unleashing the Power of Contrastive Self-Supervised Visual Models via Contrast-Regularized Fine-Tuning
안녕하세요, 허재연입니다. 요즘 Self-supervised learning을 활용해 pretrain한 이후 finetuning하는 과정에서 어떻게 하면 성능을 올릴 수 있을까 고민하고 있는데, 고민 도중 찾아본 논문을 소개하고자 합니다. 보통…
KCCV2023 참관기
KCCV 참관 후기 안녕하세요, 허재연입니다. 이번에 좋은 기회로 KCCV2023에 참관할 수 있었습니다. KCCV2023은 8.7~8.9(월-수)는 코엑스에서 대면으로 진행되었고, 마지막 날(8.10 목)은 온라인으로 진행되었습니다. 원래는 월요일부터 전부…
[ICLR 2020] A Simple Framework for Contrastive Learning of Visual Representations
안녕하세요, 이번에 리뷰할 논문은 Google research team에서 2020년에 발표한 SimCLR이라는 self-supervised learning 방법론입니다. 인공지능의 대부 제프리 힌튼이 공저자인게 눈에 띕니다. 이 방법론은 MoCo, BYOL, Barlow…
[ECCV 2016] Identity Mappings in Deep Residual Networks
본 논문은 ResNet의 후속 논문으로, Kaiming He 등 ResNet 저자들이 skip connection을 분석해 기존보다 개선된 ResNetv2를 제안한 논문입니다. skip connection을 적용한 backbone들에 대해 정리하고자 관련…
[CVPR 2017] Densely Connected Convolutional Networks
안녕하세요 허재연입니다. 첫 번째 X-Review입니다. 종강 이후 예전 논문부터 원복을 진행하고 있는데, 이전 ResNet 원복 이후 금주에는 DenseNet 원복을 진행했습니다. 이번 주 내내 이 논문을…
<2023년 상반기를 정리하며>
안녕하세요. 허재연 입니다. URP를 마무리하고 RCV에 합류한지 벌써 한 학기가 지났습니다. 전공 공부를 포함해서 이것저것 할 일이 많아 정신 없이 지내다 보니 이번 학기는 정말…
최신 댓글