평균 0, 분산 1 weight initialization 방법
weight_init = tf.keras.initializaers.RandomNormal()
Xavier Initialization (평균 0, 분산 2/Channel_in + Channel_out)으로 구성된 분포로 random한 weight 초기화 방법)
weight_init = tf.keras.initializaers.glorot_uniform()
He initialization
weight_init = tf.keras.initializaers.he_uniform()
케라스 레이어의 initial random weight 설정하는 방식
보통은 kernel initializer/ bias_initializer를 사용한다.
model.add(Dense(64,
kernel_initializer='random_uniform',
bias_initializer='zeros'))
<사용하는 방법 >
RandomUniform
keras.initializers.RandomUniform(minval=-0.05, maxval=0.05, seed=None)
균등분포에 따라 텐서를 생성하는 초기값 설정기이다.
minval : 난수 값 생성할 범위의 하한선, maxval: 난수값 생성할 범위의 상한선
출처 :https://studyeong.blogspot.com/2020/02/tensorflow-2-5-weight-initialization.html
[Tensorflow] 2-6. Weight Initialization
Weight Initialization 사람의 신경망이 무언가에대해 인지하는 과정은 loss를 최소화 하는 과정과 같다. loss 함수가 위 그림의 왼쪽과 같다면, 시작점이 어디인지에 상관없이 최저의 loss를 찾는 것이
studyeong.blogspot.com
https://keras.io/ko/initializers/
Initializers - Keras Documentation
초기값 설정기의 사용법 초기값 설정은 케라스 레이어의 초기 난수 가중치를 설정하는 방식을 규정합니다. 초기값 설정기를 레이어에 전달하는 키워드 인수는 레이어 종류에 따라 다릅니다. 보
keras.io
'Deep learning > Studying' 카테고리의 다른 글
deep learning ai (0) | 2021.09.13 |
---|---|
Random Initialization이 필요한 이유 (0) | 2021.09.10 |
Group Normalization vs Batch Normalization (0) | 2021.09.10 |
Batch Normalization(배치 정규화) (0) | 2021.09.10 |
Weight initialization(가중치초기화 ) (0) | 2021.09.10 |