Author: 황 유진
A Survey on Multi-Task Learning
본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…
[CVPR2022]Exploring the Equivalence of Siamese Self-Supervised Learning via A Unified Gradient Framework
Here’s 학습을 위해서 가공이 되지 않은, 비가공 데이터로부터 학습을 가능하게하는 self-supervised learning은 다양한 연구가 진행되어왔다. 또한 현시점에서 일반적으로 다음의 3가지 관점으로 나뉜다: 1) contrastive learning(MoCo),…
[CVPR2022]Leverage Your Local and Global Representations: A New Self-Supervised Learning Strategy
Here! (용어가 익숙하지 않으신 분은 overview 먼저 읽으시는 것을 추천드립니다.) 본 논문은 multi-view 기반의 self-supervised learning 연구에서 많은 세종 rcv의 연구원들이 의문을 가졌던, “consistency regularization기반의 학습에서…
[CVPR2022]Learning Where to Learn in Cross-View Self-Supervised Learning
간단 소개:Self-supervised learning(SSL)은 모델의 학습을 위해 이미지에서 물체의 불변성을 활용한다. 특히 이미지에 서로 다른 augmentations을 적용하여 학습에 사용하는데, 이때 random crop 등으로 object가 손실되거나 misalignment가…
[CVPR2022]Align Representations with Base: A New Approach to Self-Supervised Learning
논문 소개 본 논문은 self-supervised learning의 메인스트림중 하나인 contrastive learning에서 발생하는 collapse 문제를 해결하기 위한 논문이다. 인공지능 모델의 학습에서 collapse 현상이란 모델의 출력이 하나의 형태로 수렴하게되는 경우인데,…
[CVPR2022]A Simple Data Mixing Prior for Improving Self-Supervised Learning
한줄 소개: Self supervised learning에 적용하기 위한 최고의 Data Mixing 기술 본 논문은 self-supervised setting에 적용하여 데이터 증폭을 통해 학습의 효율성을 높일 수 있는 새로운…
2022년 상반기를 마무리하며
어느새 일반적인 석사기간의 1/4 가 지났습니다. 석사생이 되면 많은것이 바뀔 줄 알았는데 생각보다 그렇지 않네요. 2022년도 상반기와 학부연구생 기간을 비교해보면 아무래도 과제에 대한 느낌이 많이…
[CVPR2022]Hypergraph-Induced Semantic Tuple Loss for Deep Metric Learning
* Intro [go to paper?] * Triplet loss 는 직관적인 metric learning 방법론 중 하나이다. metric learning이란, 데이터간의 유사도를 거리기반으로 표현할 수 있는 인코더 f를…
[ICCV 2022]Beyond Semantic to Instance Segmentation: Weakly-Supervised Instance Segmentation via Semantic Knowledge Transfer and Self-Refinement
Intro Image segmenatation은 각 object 영역을 구별하면서 이미지에서 object가 차지하는 영역을 예측하는 instance segmentation과 이미지의 각 픽셀을 (일반적으로 사전정의된) 카테고리로 분류하는 semantic segmentation으로 나뉜다. 한편…
[NeurIPS2021] Meta-learning Sparse Implicit Neural Representations
Abstract coordinate-based neural representations 라고도 불리는 Implicit neural representations(INRs)은 signal representation 연구로, 기존 signal representation은 signal values를 좌표계인 voxel이나 pixels 기반으로 나타냈다면 INR은 연속된 정보인…
안녕하세요 정민님 깔끔한 리뷰 감사합니다. 말씀하신 것처럼 약간 지도학습기반으로 다시 회귀하는 점이 장점이자 단점이라고 생각할 수 있을 것 같습니다. 제가…