728x90
반응형
시그모이드 함수는 신경망 분야에서 오래전부터 이용해왔으나, 최근에는 ReLU 함수를 주로 이용한다.
ReLU
- 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0이하면 0을 출력하는 함수다.
파이썬 코드
# ReLU
import numpy as np
import matplotlib.pylab as plt
def ReLU(x):
return np.maximum(0,x) # maximum 함수는 두 입력 중 큰 값을 선택해 반환하는 함수다.
x = np.arange(-5.0,5.0,0.1) # -5.0~ 5.0 +=0.1
y = ReLU(x)
plt.plot(x,y)
plt.ylim(-0.1,5.0) # y축 값
plt.show()
출처 : 밑바닥부터 시작하는 딥러닝
https://www.hanbit.co.kr/store/books/look.php?p_code=B8475831198
728x90
반응형
최근댓글