SILVER

  • 홈
  • 태그
  • 방명록

normalization 1

Group Normalization vs Batch Normalization

Channel Height Weight Nums Batch Norm 배치 단위로 정규화하는 것으로 batch 의 크기에 영향을 많이 받는다. 데이터를 정규화하게 되면 활성화 함수의비선형과 같은 특징을 잃게 되는데 이러한 문제를 완화하기 위해 shift와 scale을 사용한다. (비선형의 성질을 보존하기 위함) Layer Norm 입력 데이터의 (1회) 반복마다 평균과 표준편차를 구한다. 하나의 이미지에서 동작하며, 평균/분산이 다른 데이터와 독립적으로 계산된다. Instance Norm 각 훈련 이미지의 각 채널에 대한 평균/분산을 계산한다. Style Transfer를 위해 고안된 방법이기 때문에 style transfer에서 배치 정규화를 대체하여 많이 사용하고 GANs에서 배치 정규화를 대체하여 사..

Deep learning/Studying 2021.09.10
이전
1
다음
더보기
프로필사진

SILVER

  • 분류 전체보기 (129)
    • About Me (0)
    • Language (60)
      • C# (41)
      • GoLang (6)
      • python (1)
      • React (10)
      • NextJs (1)
      • Django (1)
    • Algorithm (2)
    • Deep learning (43)
      • Error (8)
      • 환경세팅 (4)
      • Studying (15)
    • Education (1)
    • Design Pattern (3)

Tag

bayesian optimization, Brightness, c#, c##PointToScreen, class imbalance #, dat file, grid search, ins, isns, labels,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바