728x90
반응형

시그모이드 함수는 신경망 분야에서 오래전부터 이용해왔으나, 최근에는 ReLU 함수를 주로 이용한다.

 

ReLU

  • 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0이하면 0을 출력하는 함수다.

 

파이썬 코드

# ReLU

import numpy as np
import matplotlib.pylab as plt

def ReLU(x):
    return np.maximum(0,x) # maximum 함수는 두 입력 중 큰 값을 선택해 반환하는 함수다.

x = np.arange(-5.0,5.0,0.1) # -5.0~ 5.0 +=0.1
y = ReLU(x)

plt.plot(x,y)
plt.ylim(-0.1,5.0) # y축 값 
plt.show()

[그림1] ReLU 함수의 그래프

 

 

출처 : 밑바닥부터 시작하는 딥러닝

https://www.hanbit.co.kr/store/books/look.php?p_code=B8475831198

 

밑바닥부터 시작하는 딥러닝

직접 구현하고 움직여보며 익히는 가장 쉬운 딥러닝 입문서

www.hanbit.co.kr

 

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기