[TIL] #11 2026-04 -08

2026. 4. 8. 17:02·TIL

 

 

U-net : 인코더는 Down-Sampling할 때 각 층에서의 특성맵을 보관하고, 디코더에서 인코더의 같은 층의 특징 맵을 concat하여 skip-connection을 진행한다.

 

※Skip-Connection

Skip-Connection : U-net이랑 Resnet에서 사용하는 개념인데, 특정 층의 출력을 계산하는 대신, 그 출력을 다음 층의 출력에 더하는 방식을 사용하는 방식

 

같은 층 특성 맵 합침(채널 수 2배) -> 컨볼루젼으로 1/2로 채널수 만듬 -> 업샘플링

 

디테일한 정보들이 특성맵으로 압축되면서 정보를 잃어버리는 경우가 생기는데, 다운샘플링중 고해상도 특성맵을 저장해놓았다가 두 특성맵들을 concat하여 사용하면서, 원본 이미지의 디테일한 정보 + 저해상도 특성맵의 중요한 정보를 합쳐서 원본 이미지와 유사하게 출력이 가능해진다

 

 

이미지 Segmentation의 데이터세트를 구성할 때는 toTensor() 대신 F2.to_dtype(img, torch.float32) 사용

-> scale = True : 0 ~ 1 사이 정규화, False :  정규화 X

 

mask의 경우에는 torch.long타입으로 바꾸고, scale = False 한 다음 mask = (mask/255) > 0.5.sqeeze(0).long()으로 직접 클래스 번호 할당 0(배경) 1(사물)

 

 

※이미지 분할에서의 손실

픽셀별 cross-entropy 손실 : 이미지의 모든 픽셀에 대해 각각 이 픽셀이 정답 클래스에 속할 확률을 계산

 

다이스 손실 : 두 영역이 얼마나 겹치는지를 나타내는 Dice Coefficient를 손실 함수로 변경

-> 이미지 내에서 찾는 무체가 아주 작고 배경이 넓을 떄 매우 강력

 

위 두 손실을 합쳐서 많이 사용함

'TIL' 카테고리의 다른 글

[TIL] #13 2026-04-12  (0) 2026.04.12
[TIL] #12 2026-04-10  (1) 2026.04.10
[TIL] #10 2026-03-30  (0) 2026.03.30
[TIL] #9 2026-03-26 ~ 3-27  (1) 2026.03.27
[TIL] #8 2026-03-16  (2) 2026.03.16
'TIL' 카테고리의 다른 글
  • [TIL] #13 2026-04-12
  • [TIL] #12 2026-04-10
  • [TIL] #10 2026-03-30
  • [TIL] #9 2026-03-26 ~ 3-27
uj07096
uj07096
개발블로그 시작 !
  • uj07096
    김재헌 님의 블로그
    uj07096
  • 전체
    오늘
    어제
    • 분류 전체보기 N
      • Algorithm
      • My IT
        • Article
        • Codes
      • TIL
      • My Projects N
  • 블로그 메뉴

    • 홈
    • 태그
    • 방명록
  • 링크

  • 공지사항

  • 인기 글

  • 태그

    이상치
    PyTorch
    DenseNet
    convolution
    python
    데이터전처리
    딥러닝
    프로그래머스
    Tensor
    GAN
    optuna
    EfficientNet
    Algorithm
    autoencoder
    LeetCode
    kaggle
    파이썬
    Stack
    DeepLearning
    코딩테스트
    LSTM
    EDA
    transfer learning
    til
    AI
    머신러닝
    YOLO
    코테
    Faster R-CNN
    ResNet
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.6
uj07096
[TIL] #11 2026-04 -08
상단으로

티스토리툴바