2022년 11월 27일


Lecture05-06. Image Understanding

Summary of Important Topics

Additional Survey

ReLU 함수를 이용하는 경우 출력이 0일 때 기울기가 0이라 마찬가지로 학습이 이루어지지 않지 않을까 생각을 했는데 그 때 조금의 기울기를 주는 Leaky ReLU 같은 개선 버전이 있다고 한다. ReLU는 다른 Activation Function에 비해 연산이 단순하여 sigmoid, tanh에 비해 loss 업데이트가 6배 가량 더 빠르다고 한다.

Discussion

오픈 소스 모델을 사용할 때 대다수의 제작자가 Pretrained 모델과 그것을 사용 가능하게 해주는 옵션을 제공해준다. 모델 학습 시 꼭 사용해야 하는 기법이 아닐까라고 여겨졌다.

Lecture07. Generative Models

Summary of Important Topics