AI
ReLU(Rectified Linear Unit), 렐루 함수 그래프 구현
시그모이드 함수는 신경망 분야에서 오래전부터 이용해왔으나, 최근에는 ReLU 함수를 주로 이용한다. ReLU 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0이하면 0을 출력하는 함수다. 파이썬 코드 # ReLU import numpy as np import matplotlib.pylab as plt def ReLU(x): return np.maximum(0,x) # maximum 함수는 두 입력 중 큰 값을 선택해 반환하는 함수다. x = np.arange(-5.0,5.0,0.1) # -5.0~ 5.0 +=0.1 y = ReLU(x) plt.plot(x,y) plt.ylim(-0.1,5.0) # y축 값 plt.show() 출처 : 밑바닥부터 시작하는 딥러닝 https://www.hanbit.co.k..
2020. 10. 23. 15:46
최근댓글