aihot  2017-12-10 16:25:59  机器学习 |   查看评论   

      结果竟然也不错:

  1. === Final ===
  2. X=[[0 0 1 1]
  3.  [0 1 0 1]]
  4. t=[[0 0 0 1]]
  5. y=[[ 0.00399349  0.02830098  0.02830098  0.96924181]]
  6. === w1 ===
  7. [[ 2.48265841  2.48265841  2.48265841  2.48265841]
  8.  [ 2.48265841  2.48265841  2.48265841  2.48265841]]
  9. === w2 ===
  10. [[ 3.231811]
  11.  [ 3.231811]
  12.  [ 3.231811]
  13.  [ 3.231811]]

 虽然每层的参数依然相同,但是训练得到了收敛。这又说明了什么呢?关于这个问题有机会再说。

 

全连接层就这样聊了三期,下回可以换个口味了。

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自神经网络-全连接层(3)

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]