728x90
반응형

shape 함수는 행렬을 알려준다.

numpy 배열은 n차원 배열을 작성할 수 있다.

 

수학에서 1차원 배열은 벡터

2차원 배열은 행렬이라고 부른다.

 

벡터와 행렬을 일반화 한 것이 텐서(tensor)

 

flatten함수는 행렬이나 다차원 배열을 1차원 배열 - 벡터로 변환한다. (평탄화)

 

matplotlib은 그래프를 그리는데 사용하는 라이브러리다. (데이터 시각화에 매우 유용하다.)

그래프를 그릴 경우 matplotlib의 pyplot 모듈을 이용한다.

 

퍼셉트론 - 다수의 신호를 입력으로 받아 하나의 신호를 출력한다.

*신호 - 전류나 강물처럼 흐름이 있는 것을 상상하면 좋음

퍼셉트론 신호는 흐른다/안 흐른다(1이나 0)두 가지 값을 가질 수 있다.

 

딥러닝에서 기울기 a를 종종 가중치를 의미하는 W나 계수를 의미하는 0으로 표기한다.

y는 y^ 와이-햇이라고 읽는다.

 

y = ax+b == y^ = Wx+b

 

푸리에 변환 - 음의 파형을 분석함 - 복잡한 파형을 가진 함수를 삼각함수의 덧셈으로 표현하는 변환 방법

 

 

model - CNN과 같은 알고리즘 

Layer - 딥러닝의 신경망 층

첫 Layer - Input Laye

중간 Layer - Hidden Layers

마지막 Layer - Output Layer

 

CNN(Convloution Neural Network)

Convloution - 합성곱 (이미지 필터를 받으면 Input image와 합성곱을 곱해 Feature map를 내놓음)

Convloution 안에서 Weight/Filter/Kernel/Variable/Bias 

y = wx + b

 

Polling Layer - 앞에서 Feature map을 뽑으면 그걸 줄이는 것 = 압축

Optimization - 인공지능을 학습시키고 나서 최적화 

Activation Function - 앞에서 특징을 뽑으면 음수값이나 다른 값들을 제거 해당하는 알고리즘 ReLU, Sigmoid, ELU,Leaky ReLU, Maxout  == 불필요한 값들 제거

 

Softmax - 마지막에 컴퓨터가 예측한 값을 전부 합쳐서 1로 만들게 변환해줌

예) 2.0 1.0 0.1을 -> 0.7 0.2 0.1 이처럼 확률로 계산 가능하게끔 만들어준다.

 

 

Cost / Loss /Loss Function - 값들이 얼마나 틀렸는지 계산하는 방식

Loss Function이 얼마나 틀렸는지 봤다면 이제 최소로 줄이는 방법이 Optimization - 최적화

 

Learning Rate - HyperParameter라는 것들을 조정 - 연구원들이 직접 조정

HyperParameter - 자동 설정되는 변수 - 주 변수가 아님 - 학습 프로세서를 제어하는데 사용되는 값을 가진 매개변수

 

Batch Size - 모델에 데이터를 집어넣음 하지만 한 번에 모델에 모든 데이터를 넣을 수는 없다. 몇 장을 넣을 거냐 얼마의 데이터를 넣을 것이냐 정하는 것.

 

Epoch/Step - 반복하는 양 - 전체 데이터를 과정을 진행 - 1 Epoch 두번 - 2 Epoch

 

전체 데이터 셋 - > Train set , Test Set -> Train set, Eval, Test Set

Eval - 

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기