Author: 천 혜원

Posted in X-Review

[WACV 2022] AuxAdapt: Stable and Efficient Test-Time Adaptation for Temporally Consistent Video Semantic Segmentation

제목에서 확인할 수 있듯 이 논문은 video semantic segmentation task를 다루고 있는데요, 제가 해당 task에 자세히 알고 있는 것은 아닌지라… video segmentation관련 내용보다는 본문의 방법론이…

Continue Reading
Posted in X-Diary

2023년을 돌아보며

지난 상반기에 작성했던 <2022년 RCV 연구실 생활을 마무리하며>에 이어, 이 글에서는 2023년 하반기를 돌아보고, 2024년의 목표와 다짐을 정리해보겠습니다. 2023년 회고 우선 하반기에는 감정인식 과제에 집중하였습니다….

Continue Reading
Posted in X-Review

[ACCV 2022] Cross-Architecture Knowledge Distillation

transformer는 global relation을 잘 파악한다는 장점으로 인해 여러 분야에서 좋은 성능을 달성하였습니다. 여기까지는 우리가 익히 알고 있는 것과 같죠. 이렇듯 transformer가 좋은 성능을 달성하여 논문의…

Continue Reading
Posted in X-Review

[ICASSP 2022] Wav2CLIP: Learning Robust Audio Representations from Clip

이번 주 리뷰는 Wav2CLIP이라는 논문으로 Contrastive Language–Image Pre-training (CLIP)에서 파생된 audio representation learning method입니다. 우리가 기존에 알고 있던 CLIP은 image와 text를 동일 feature space로 projection하고…

Continue Reading
Posted in X-Review

[ICLR 2020] Training Binary Neural Networks with Real-to-Binary Convolutions

이번에 리뷰한 논문은 quantization 분야의 논문입니다. 그 중에서도 binary neural network 논문을 가져왔는데요, 모델의 가중치가 0혹은 1로 표현된 binary 모델을 학습하여 full precision의 모델과 비슷한…

Continue Reading
Posted in X-Review

[INTERSPEECH 2023] MMER: Multimodal Multi-task Learning for Speech Emotion Recognition

이번에 리뷰할 논문은 Interspeech 2023에 발표된 MMER이라는 논문입니다. 해당 논문은 음성 감정 인식을 수행하기 위해 text데이터를 추가적으로 활용하는 멀티모달 감정인식 논문으로 multi-task learning을 사용하여 IEMOCAP…

Continue Reading
Posted in X-Review

[ICASSP 2022] Domain Adaptation For Speaker Recognition In Singing And Spoken Voice

Introduction Speaker Recognition은 음성 데이터의 발화자를 인식하는 것으로 어떤 음성 샘플이 지정된 speaker 중 어떤 사람의 음성인지 분류하는 task입니다. 주로 두 음성 샘플을 비교하여 해당…

Continue Reading
Posted in X-Review

[arxiv 2020] Integer Quantization for Deep Learning Inference

최근 quantization, low-bit 연산에 관해 공부중이었는데요, quantization에 대해 잘 정리된 논문을 발견하여 소개드리고자 리뷰하게 되었습니다. Introduction 일반적으로 DL application에서 사용되는 numerical format은 32-bit single-precision floating…

Continue Reading
Posted in X-Review

[NeurIPS 2021] Does Knowledge Distillation Really Work?

이번에 리뷰할 논문은 지난 리뷰와 마찬가지로 knowledge distillation에 관한 분석 논문입니다. Knowledge distillation이란 teacher의 예측값을 student의 정답 값으로 사용하여 크기가 작은 모델인 student의 capacity를 증진시키는…

Continue Reading
Posted in X-Review

[CVPR 2022] Knowledge distillation: A good teacher is patient and consistent

Abstract 저자들은 cv분야에서 높은 정확도를 보여주는 sota모델들과 실제 사용되고 있는 affordable한 모델 간의 격차가 증가하고 있다고 지적합니다. 논문의 저자들은 이러한 두 가지 타입의 모델간의 격차가…

Continue Reading