• <input id="2bncg"><div id="2bncg"></div></input>
    <video id="2bncg"><dfn id="2bncg"></dfn></video>
  • <video id="2bncg"></video>
        1. <source id="2bncg"><menu id="2bncg"><kbd id="2bncg"></kbd></menu></source>

          <b id="2bncg"><address id="2bncg"></address></b>

          <source id="2bncg"><address id="2bncg"></address></source>
          <video id="2bncg"></video>

          第六百三十三章(1 / 2)

          對于這個神經網絡的訓練過程,就是要確定這11935個參數。

          訓練的目標可以粗略概括為:對于每一個訓練樣本,對應的輸出無限接近于1,而其它輸出無限接近于0。

          根據MichaelNielsen給出的實驗結果,以上述網絡結構為基礎,在未經過調優的情況下,可以輕松達到95%的正確識別率。而核心代碼只有74行!

          在采用了深度學習的思路和卷積網絡(convolutionalworks)之后,最終達到了的正確識別率。而針對MNIST數據集達到的歷史最佳成績是的識別率,是由LiWan,MatthewZeiler,SixinZhang,YannLeCun,和RobFergus在2013年做出的。

          考慮到這個數據集里還有一些類似如下這樣難以辨認的數字,這個結果是相當驚人的!它已經超越了真正人眼的識別了。

          在這個過程中一步步調整權重和偏置參數的值,就必須引入梯度下降算法(gradientdescent)。

          在訓練的過程中,我們的神經網絡需要有一個實際可行的學習算法,來逐步調整參數。

          而最終的目的,是讓網絡的實際輸出與期望輸出能夠盡量接近。我們需要找到一個表達式來對這種接近程度進行表征。這個表達式被稱為代價函數(costfunction)

          x表示一個訓練樣本,即網絡的輸入。其實一個x代表784個輸入。

          y(x)表示當輸入為x的時候,期望的輸出值;而a表示當輸入為x的時候,實際的輸出值。y(x)和a都分別代表10個輸出值(以數學上的向量來表示)。而它們的差的平方,就表征了實際輸出值和期望輸出值的接近程度。越接近,這個差值就越小。

          n是訓練樣本的數量。假設有5萬個訓練樣本,那么n就是5萬。因為是多次訓練,所以要除以n對所有訓練樣本求平均值。

          C(w,b)的表示法,是把costfunction看成是網絡中所有權重w和偏置b的函數。為什么這樣看呢?進行訓練的時候,輸入x是固定的(訓練樣本),不會變。在認為輸入不變的情況下,這個式子就可以看成是w和b的函數。那么,式子右邊的w和b在哪呢?實際上,在a里面。y(x)也是固定值,但a是w和b的函數。

          總結來說,C(w,b)表征了網絡的實際輸出值和期望輸出值的接近程度。越接近,C(w,b)的值就越小。因此,學習的過程就是想辦法降低C(w,b)的過程,而不管C(w,b)的表達形式如何,它是w和b的函數,這就變成了一個求函數最小值的最優化問題。

          由于C(w,b)的形式比較復雜,參數也非常多,所以直接進行數學上的求解,非常困難。

          為了利用計算機算法解決這一問題,計算機科學家們提出了梯度下降算法(gradientdescent)。

          這個算法本質上是在多維空間中沿著各個維度的切線貢獻的方向,每次向下邁出微小的一步,從而最終抵達最小值。

          由于多維空間在視覺上無法體現,所以人們通常會退到三維空間進行類比。當C(w,b)只有兩個參數的時候,它的函數圖像可以在三維空間里呈現。

          就好像一個小球在山谷的斜坡上向下不停地滾動,最終就有可能到達谷底。這個理解重新推廣到多維空間內也基本成立。

          而由于訓練樣本的數量很大(上萬,幾十萬,甚至更多),直接根據前面的C(w,b)進行計算,計算量會很大,導致學習過程很慢。

          、于是就出現了隨機梯度下降(stochasticgradientdescent)算法,是對于梯度下降的一個近似。

          最新小說: 探墓筆記云峰 影視快穿合集 開局系統助陣,我趕海都爆桶趙勤彭老六 惡毒炮灰嬌養帝國元帥后,爆紅了 一人之下:我紙扎匠,開局鬼鐘馗 我重生成了亡靈法師 本宮嬌養的小奶狗被寵野了 大宋楊門 超神之幻想系統 柯南之假酒的自我修養
        2. <input id="2bncg"><div id="2bncg"></div></input>
          <video id="2bncg"><dfn id="2bncg"></dfn></video>
        3. <video id="2bncg"></video>
              1. <source id="2bncg"><menu id="2bncg"><kbd id="2bncg"></kbd></menu></source>

                <b id="2bncg"><address id="2bncg"></address></b>

                <source id="2bncg"><address id="2bncg"></address></source>
                <video id="2bncg"></video>
                最近免费观看高清韩国日本大全