딥러닝

활성함수

시그모이드(sigmoid) 함수

함수의 출력값을 [0, 1]로 제한시키며 입력값이 매우 크면 1, 작으면 0으로 제한

오차를 줄이기 위해서 사용

import numpy as np

def sigmoid(z) :
    return 1/(1+np.exp(-z)) # exp 자연수 e

sigmoid(1)
sigmoid(0.5)

쌍곡선함수 Tanh

비선형 함수

함수값을 [-1, 1]로 제한

ReLU(Rectified Linear Unit) - 가장 많이 사용