최대 1 분 소요

스탠포드대학에서 발표한 CNN 강의 영상을 듣고 자료를 정리했습니다.

Lecture 4 | Introduction to Neural Networks

Front propagation

image

  • x, y, z값이 주어지고, 왼쪽에서 오른쪽 노드로 건너가며 연산이 진행


Back propagation

  • x, y, z가 f(x,y,z)에 어떠한 영향을 미치는지 알아보기 위해 backpropagation 연산을 활용
  • 말 그대로 거꾸로 연산
  • 뒤에서부터(마지막 연산부터) 편미분

    Untitled


  • 행렬 Back propagation연산은 다음과 같다

    image


  • Jacobian Matrix

    image

    • 야코비 행렬은 해당 함수의 편도함수 행렬으로, local gradient * global gradient 연산을 할 때 필요한 매트릭스다.
    • Jacobian matrix크기는 4096 * 4096 으로 주어지면 minibatch 를 이용해 연산 시, 실용적이지 못하다. 따라서 연산하지 않고, 출력에 대한 x영향을 구할 때 max 연산을 통해 일부는 0으로 채운다.



Neurual Network

Untitled

  • 지난번에 다룬 Linear Classifier f = wx에 hidden layer 가 추가 되었을시 , 3072의 데이터가 w1와 곱해지고 h노드(hidden layer)에 들어가고 다시 w2 가중치 연산을 통해 10개의 출력값으로 나온다.
  • hidden 노드에 따라 더 많은 Classifier를 생성할 수 있다.

댓글남기기