Densenet 한 단 추가하기 (+ mish 사용) #52
chanyub
started this conversation in
Show and tell
Replies: 1 comment
-
|
"방법 : SATRN모델의 인코더로 쓰이는 DeepCNN300에 transition, block 하나씩 추가," -> 이 부분 코드도 같이 올려주시면 좋을 것 같습니다~~ |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
실험 1 :
가설 : 레이어가 한 단 더 깊어지면 성능이 향상 되지 않을까?
방법 : SATRN모델의 인코더로 쓰이는 DeepCNN300에 transition, block 하나씩 추가, 광원님이 올려주신 mini모델로 실험
결과 : 성능이 잘 나오는 듯 싶더니 30epoch 쯤부터 오히려 성능상승 곡선이 부진함 => 성능 하락 (wandb 있었는데 실수로 지움 ㅠㅠ)
실험 2 :
가설 : 성능 상승이 부진한 이유가 ReLU에서 0 이하 정보를 손실시키기 때문은 아닐까?
방법 : Densenet 한 단 추가한 모델의 activation function을 ReLU대신 mish로 변경
결과 : 아래 사진처럼 기존 mini 모델보다 안정적으로 상승
실험 2 코드
(DeepCNN300 대신 이거 사용하면 됩니다)
실험 2 GPU 사용량 (batch_size = 360)

실험 3 :

가설 : Densenet한 단을 더 쌓아서가 아니라 그냥 mish가 좋은게 아닐까?
방법 : Densenet 안 쌓고 mish를 사용한 모델을 돌려봄
결과 : 아래 사진처럼 안 쌓고 mish를 쓴게 가장 좋은 결과가 나옴
=> 결론 : Densenet을 한 단 추가하지말고 ReLU를 mish로 바꾸는게 성능 향상될 것
Beta Was this translation helpful? Give feedback.
All reactions