1.모든 layer의 weight는 같은 블럭 내에서 많은 입력에 퍼지게 됩니다.
2.Transition Layer의 weight도 여러 layer에 퍼지면서 첫 denseNet의 첫 레이어부터 마지막 레이어까지 정보를 전달하게 합니다.
3.2~3 block의 layer들은 transition layer의 output에 적은 weight을 할당합니다.
4. classification layer에서도 전체 dense block의 가중치를 사용하지만 마지막 feature map에 상당히 집중된 것을 확인할 수 있습니다.
댓글 영역