Google Machine Learning BootCamp (3)
Shallow Neural Networks
- 정리는 필요하지만 일단 생각나는 것 적기
- 신경망 구조 (3 layers)
- 신경망 계산하기
- Activation Function
- 기울기
- 가중치 벡터 초기화
Quiz
- denote
- a[2] : activation vector of the 2nd layer.
- a1 : activation vector of the 2nd layer for 10th training example.
- a4[2] : activation output by the 4th neuron(node) of the 2nd layer.
- activation function
- tanh은 -1에서 1 사이의 output을 가진다. 이것은 데이터를 중앙에 배치하여 학습을 단순화한다.
- sigmoid은 0에서 1 사이의 output을 가지기 때문에 binary classification에 적합한 activation function이다.
- forward propogation for layer
- input layer -> hidden layer -> output layer
- axis
- axis == 0 : x축 (row)
- axis == 1 : y축 (column)
- axis == 2 : z축 (depth)
- initialize zero vs random
- In NN, if you initialize the w, b to be zero, the NN doesn’t work well.
- 첫 번 째 hidden layer의 노드(뉴런)가 모두 동일한 계산 결과를 가지므로, 이후 계산들은 모두 의미가 없어진다.
- dims
- w[1] : (n[1], n[0])
- b[1] : (n[1], 1)
- z[1] : (n[1], 1)
- w[2] : (n[2], n[1])
- b[2] : (n[2], 1)
- z[2] : (n[2], 1)
Ian Goodfellow Interview
- 좋은 코드를 작성하여 github에 공유해 보자.
- 기계 학습 보안 문제를 생각해 보자.