Object-Contextual Representations for Semantic Segmentation

논문: https://arxiv.org/pdf/1909.11065.pdf
Object-Contextual Representations for Semantic Segmentation (이하 OCRNet)은 context schemes와 관련된 흐름의 연구이다. 이전에 리뷰했던 논문은 multi-scale context로 성능을 높였다면(PSPNet, DeepLab) 이 논문은 relational context를 이용하여 성능을 높였다. 이 둘을 비교하기에 적절한 그림은 아래 그림1과 같다.

그림1. (a) 빨간색 패치에 대한 ASPP에서 multi-scale context 영역 (파란색과 살구색. 두 픽셀은 dilation rate 차이가 있으며, 배경영역도 포함하고 있음을 확인할 수 있다) . (b) 빨간색 패치에 대한 OCRNet의 context 영역(파란색).

Architecture
Backbone:
dilated ResNet-101[1] 또는 HRNetW48 [2]의 일부를 backbone으로 사용하였다. 이러한 network의 도움을 받아 pixel을 course한 object regions으로 나눈다. 이후에 이러한 region을 통합하여 객체의 표현을 확대한다.
OCR module:
OCR module은 위의 Fig3 과 같고, soft object region을 구하는 분홍색 박스 영역과, final segmentation영역에는 linear function with pixel-wise cross-entropy loss를 이용하였고 나머지 영역은 논문의 3절에 설명된 공식들을 구현하였다.

실험
표1과 2의 실험에서는 dilated ResNet-101을 backbone으로 사용하였다.

표1. multi-scale context scheme와의 비교
표2. 이전의 relational context scheme 연구와의 비교
표3. state-of-the-art와의 비교

참조
[1] He, K., Zhang, X., Ren, S., Sun, J.: Deep residual learning for image recognition. In: CVPR (2016)
[2] Sun, K., Zhao, Y., Jiang, B., Cheng, T., Xiao, B., Liu, D., Mu, Y., Wang, X., Liu, W., Wang, J.: High-resolution representations for labeling pixels and regions. arXiv:1904.04514 (2019)

Author: 황 유진

1 thought on “Object-Contextual Representations for Semantic Segmentation

  1. relational context 빙법론들간의 컨셉적인 차이를 설명부탁드립니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 항목은 *(으)로 표시합니다