close
下圖是一個 2-layer feed-forward 類神經網路:
其中元件分別為
•輸入層(Input layer)、隱藏層(Hidden layer)與輸出層(Output layer)。
•節點稱為神經元(Neuron)
•彼此的連結有權重
當需要訓練的物件可以被量化成3個元素(x1,x2,x3)並且得知這個物件的正確答案為Y時。
2-layer feed forward neutral network的公式如下。
由於整個演算法都是由前往後累加,並不會受到後面的 Neuron 影響,所以稱為 Feed-forward。
之後計算出AFn6與正確答案之間的誤差 Err6 = AFn6*(1-AFn6)*(T-AFn6),假設正確答案是T。
接下來要更新每個 Neuron 的 theta 與連結上的權重(w)。
依此類推,將整個類神經網路的 theta and weight通通更新,並且進行下一次的學習,直到收斂為止。
由於是由後面往前面,所以這個方法稱作 Backpropagation。
全站熱搜
留言列表