Notice
Recent Posts
Recent Comments
Link
«   2025/07   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
Tags
more
Archives
Today
Total
관리 메뉴

RECORD AI

Neural Network Representation 본문

Deep Learning/basic Neural Networks

Neural Network Representation

SC_LEE 2022. 12. 26. 14:01
반응형

Neural Network Representation


1. input layer (입력층)

  • feature $x_1, x_2, x_3$ 이 세로로(vertically) 쌓여있는 층

2. hidden layer (은닉층)


  • 지도학습으로 훈련시키는 신경망에선 훈련세트가 $X,Y$로 이루어져있고 은닉층의 실제값은 훈련세트에 기록되어있지 않다.
  • 입력값, 출력값은 알수있지만 은닉층의 값은 알 수 없다.
  • 은닉층이라는 이름은 훈련세트에서 볼 수 없다는 것을 의미한다.

3. output layer (출력층)


* $\hat{y}$의 계산을 책임진다.

4. $a$(활성화함수)로 보는 layer

1) input layer


  • $a$ : 활성값, 신경망의 층들이 다음 층으로 전달해주는 값
  • $a^{[0]}=X$
  • $a^{[0]}$ : 입력층의 활성값

2) hidden layer


은닉층과 연관된 parameter : $w^{[1]}, b^{[1]}$

  • 1번째 은닉층에 관련된 parameter : 윗첨자 [1]을 붙임
  • $w^{[1]} = (4,3)$ : 은닉노드 4개, feature 3개
  • $b^{[1]} = (4,1)$

3) output layer

  • $a^{[2]}=\hat{y}$
  • logistic regression에서 $\hat{y}=a$인 것과 비슷하다.

출력층과 연관된 parameter : $w^{[2]}, b^{[2]}$

  • $w^{[2]} = (1,4)$ : 출력노드 1개, 은닉노드 4개
  • $b^{[2]} = (1,1)$

정리

  • 신경망의 층을 셀때 입력층은 세지 않기때문에 이 신경망은 2 layer NN (2층 신경망)이다.

    은닉층: 1번째, 출력층이 2번째 (표기관례상 입력층: 0번째 층)

    이 신경망엔 입력층, 은닉층, 출력층 층이 3개 있다고 할수있지만 관례적으로 이 신경망을 2 layer NN (2층 신경망)이라 부른다.

참고 1

반응형

'Deep Learning > basic Neural Networks' 카테고리의 다른 글

Vectorizing Across Multiple Examples  (0) 2022.12.26
Computing Neural Network Output  (0) 2022.12.26
Neural Network Overview  (0) 2022.12.26
Vectorization Logistic Regression  (0) 2022.12.22
Logistic Regression Gradient descent  (0) 2022.12.22
Comments