딥러닝 - 딥러닝의 미래

AI / / 2020. 12. 17. 13:57
728x90
반응형

이미지 스타일(화풍) 변환

  • 딥러닝을 활용해 화가처럼 '그림을 그리는' 연구
  • 아래 그림은 두 이미지를 입력해 새로운 그림을 생성하는 연구다.
    • 하나는 '콘텐츠 이미지'
    • 다른 하나는 '스타일 이미지' 둘을 조합해 새로운 그림을 그려준다.

 

'A Neural Algorithm of Artistic Style' 논문을 구현해 적용한 예

  • 왼쪽 위가 '스타일 이미지' , 오른쪽 위가 '콘텐츠 이미지' 아래가 새로 생성한 이미지

[그림1] 'A Neural Algorithm of Artistic Style 논문을 구현해 적용한 예

  • 네트워크의 중간 데이터가 콘텐츠 이미지의 중간 데이터와 비슷해지도록 학습한다.
  • 입력 이미지를 콘텐츠 이미지의 형태를 흉내 낼 수 있다.
  • 스타일 이미지의 화풍을 흡수하기 위해 '스타일 행렬'이라는 개념을 도입한다.
    • 스타일 행렬의 오차를 줄이도록 학습해 입력 이미지를 고흐의 화풍과 비슷해지도록 만들 수 있는 것

 

이미지 생성

  • 아무런 이미지 없이도 새로운 이미지를 그려내는 연구
    • 먼저 대량의 이미지를 사용해 학습을 한다.
    • 학습 이후에는 아무런 입력 이미지가 없어도 괜찮다.

 

 DCGAN(Deep Convolutional Generative Adversarial Network) 기법으로 새롭게 생성한 침실 이미지들

[그림2] DCGAN(Deep Convolutional Generative Adversarial Network) 기법으로 새롭게 생성한 침실 이미지들

  • 모두 DCGAN이 그린, 학습 데이터에는 존재하지 않는 이미지이며 처음부터 새로 생성한 이미지다.
  • 진짜와 구분할 수 없는 수준의 이미지를 그리는 DCGAN은 이미지를 생성하는 과정을 모델화한다.
    • 그 모델을 대량의 이미지(가령 침실이 찍힌 대량의 이미지)를 사용해 학습하고, 학습이 끝나면 그 모델을 이용해 새로운 그림을 생성할 수 있다.
  • DCGAN 기술의 핵심생성자(Generator)와 식별자(Discriminator)로 불리는 2개의 신경망을 이용한다는 점이다.
    • 생성자가 진짜와 똑같은 이미지를 생성하고 식별자는 그것이 진짜인지(생성자가 생성한 이미지인지, 실제로 촬영된 이미지인지)를 판정한다.
    • 둘을 겨루도록 학습시켜 생성자는 더 정교한 가짜 이미지를 생성하고 식별자는 더 정확하게 간파할 수 있는 감정사로 성장한다.
    • 이것이 둘의 능력을 부지런히 갈고닦게 한다는 개념 GAN(Generative Adversarial Network)기술의 재밌는 점이다.

 

자율 주행

  • 다양한 기술(주행 경로를 정하는 경로 계획(path plan)기술과 카메라나 레이저 등의 탐사 기술 등)을 모아 구현하고 있지만, 그 중에서도 주위 환경을 올바르게 인식하는 기술이 가장 중요한 문제중 하나다.
    • 시시각각 변하는 환경과 종횡무진 오가는 다른 차와 사람들을 올바르게 인식하기가 매우 까다롭기 때문이다.
  • SegNet
    • CNN기반 신경망

 

SegNet 딥러닝을 활용한 이미지 분할 예

[그림3] SegNet 딥러닝 활용 이미지 분할 예

 

 

Deep Q-Network(강화학습)

  • 강화학습(reinforcement learning)
  • 컴퓨터가 시행착오 과정에서 스스로 학습하게 하는 분야
  • 에이전트라는 것이 환경에 맞게 행동을 선택하고, 그 행동에 의해서 환경이 변한다는 것이 기본적인 틀
  • 환경이 변하면 에이전트는 어떠한 보상을 얻는다. 
    • 강화학습의 목적은 더 나은 보상을 받는 쪽으로 에이전트의 행동 지침을 바로잡는 것이다.

 

강화학습의 틀 : 에이전트는 더 좋은 보상을 받기 위해 스스로 학습한다.

 

[그림4] 강화학습의 틀

  • 보상은 정해진 것이 아니라 "예상 보상"이다.
  • 딥러닝 활용 강화학습 중 Deep-Q-Network(DQN)라는 방법
    • Q학습 강화학습 알고리즘을 기초로 한다.
    • Q학습에서는 최적 행동 가치 함수로 최적인 행동을 정한다.
    • 이 함수를 딥러닝(CNN)으로 비슷하게 흉내를 내서 사용하는 것이 DQN이다.
  • DQN 연구 중 비디오 게임 자율 학습시켜 사람을 뛰어넘는 수준 조작을 실현한 사례
    • DQN에서 사용하는 CNN은 게임 영상 프레임(4개의 연속한 프레임)을 입력해 최종적으로는 게임을 제어하는 움직임(조이스틱 이동량이나 버튼 조작 여부)에 대하여 각 동작의 '가치'를 출력한다.

Deep-Q-Network 비디오 게임 조작을 학습한다.

[그림5] Deep-Q-Network 비디오 게임 조작을 학습한다.

 

 

출처 : 밑바닥부터 시작하는 딥러닝

https://www.hanbit.co.kr/store/books/look.php?p_code=B8475831198

 

밑바닥부터 시작하는 딥러닝

직접 구현하고 움직여보며 익히는 가장 쉬운 딥러닝 입문서

www.hanbit.co.kr

 

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기