Deep learning

EfficientNetV2

비비이잉 2021. 8. 30. 17:11
반응형

EfficientnetV2, Smaller Models and Faster Training

 

빠른 학습에 집중한 모델이다. EfficientNetV2의 파라미터 수를 비교했을때에 월등히 파라미터의 수가 적고, 이는 그만큼 효율적인 모델임을 증명해주는 부분이다. 

 

큰 이미지로 하면 학습속도가 느림 / 초기 layer에서 depthwise convolution / 모든 stage를 동일한 비율로 scaling하는 것이 최적의 방법이 아님. 

 

그래서 소개한 전략 

1. progressive learning

2. fused-MBC convolution

3. Non-uniform Scaling

 

이 중에서 Progressive learning에 대해서 살펴보면

:Progressive Learning 이란 트레이닝 할때 이미지의 크기를 점차 늘리는 것을 말한다. 입력 이미지에 따라서 약한 정규화, 강한 정규화를 적용하여 progressive learning을 사용하였을 때 정확도가 감소하는 문제를 해결한다.

 

여기서 정규화는 1) dropout 2) RandAugment 3) Mixup 3가지의 방법이 있다. 

 

예를 들면,  " 입력이미지가 작으면 정규화방법인 3가지(dropout, randaugment, mixup)의 확률을 높이는 방법 "이다. 

 

그래서 

논문에서의 실험 결과를 보면 입력 이미지 사이즈가 커지면 커질 수록 정규화방법중 하나인 randAug magnitude를 높게 설정하면 성능이 향상되는 것을 볼 수 있다는 것이다. 

반응형