part1

activation functions

Untitled

Untitled

  1. Sigmoid

  2. tanh

  3. ReLU

  4. Leaky ReLU

  5. PReLU\

  6. ELU

    실제로 가장 많이 쓰이고 있는 것은 ReLU Learning rate를 섬세하게 잘 다루면 매우 좋은 성과를 보임

data preprocessing

Untitled