另一頭是單獨一根長長的突起纖維,學名軸突。
神經元的作用便是各個樹突接收到其他神經元細胞發出的電化學信號刺激,這些脈沖相互疊加之后,一旦最終的強度達到臨界值,便會讓這個神經元細胞啟動,隨后朝著軸突發送信號。
而軸突通過細胞膜內外的納鉀離子交換讓膜電位發生變化,使得整個電信號不衰減地傳遞下去。
最終這些信號傳遞到其他的軸突與樹突,再激發他們產生信號,成為二級神經元。
像人類的視覺系統,便是通過1億3千萬光感受細胞接受光信號,在通過120萬節細胞軸突將信息從視網膜傳遞到大腦,形成了三維圖形。
而機器學習,便是要教給計算機,怎么把它接受的輸入結果和我們想要的輸出結果關聯起來。
諸如看到一張圖片,它能夠理解這便是我們需要的數字1.
而這依賴的便是感知器,這也是名為神經網絡的原因。
感知器,本身便是模擬神經細胞,原先的生物學名詞都有了對應的新名字
權量、偏置及激活函數。
機器無法理解一副圖片,但是它可以把圖片翻譯為“像素點陣”,然后這些點陣以0與1輸入。
林奇默默在地面上化了一個初中生熟悉的xy坐標軸,同時在上面點出了這四個左邊,它們連接起來便是一個正方形,而這四個左邊分別坐落在四個象限。
機器學習需要的便是讓機器知曉諸如這種應該算作哪一個象限?
這便需要神經網絡算法的“分類”作用。
這里輸入是一個的坐標,它是一個1乘2的矩陣,這是輸入層。
設定50個神經元,所以它便是一個1乘50的矩陣,這是隱藏層。
而結果1-4象限,則是一個1乘4的矩陣,這是輸出層。
根據線性代數的知識,可以知道矩陣之間是能夠溝通的,所以一個輸出層的1乘4矩陣可以用最初的1乘2輸入層矩陣表達。
這其中的操作,便在于為這個矩陣運算添加激活層以及輸出正規化,再通過交叉熵損失來量化當前網絡的優劣,最后再進行參數優化。
這個過程所需要的便是反復迭代。
重新走完這個過程后,林奇也不禁感慨地嘆息數分。
他還記得大學的畢業論文課題,當時都是由各個導師根據自己的專業范圍制定題目,然后再由學生們報名選擇。
當時林奇選的慢了,最后剩下的都是若干不好啃的“算法題”。
畢竟做算法,墓地就是優化它的參數,讓整個計算時間短一些,效果更精確,最終更優化些,可是每年一代又一代的學生,早已把沙漠上明顯的寶石撿走了,剩下的方法也就研究生博士生的路子,自己圈一塊地,繼續往下深挖,想要靠著視野一眼就挑出鉆石,那根本是無稽之談。
而林奇最終思索數番,選擇的是一道遺傳算法做全局最優的題目,結果當時matlab早就有一整套成熟的工具包,林奇還是老老實實地自己編寫函數,最終湊出一篇勉強的論文。
最終面對評審專家提問創新之處時,林奇也只能面前回答,他用的這幾個參數組合,未見與前人文章,這才勉強劃水過去。
而他那位選擇了神經網絡算法的舍友,當場被質疑模擬數據造假,差點延畢。
后來為了幫助舍友,林奇當時算是第一次接觸神經網絡算法。
毋庸置疑,在神經網絡算法里,秘能場參數便是“輸入矩陣”,法術模型結果便是“輸出矩陣”。
隨即,林奇在地面是書寫了一段文字
神經網絡。
人工神經網絡。
以大量的簡單計算單元構成非線性系統。
一定程度上模擬大腦的信息處理、存儲和檢索等功能。
BP網絡的誤差反向后傳學習算法。
輸出后誤差來估計輸出層的直接前導層誤差,再以誤差更新前一層的誤差,如此反傳下去獲得所有其他各層的誤差估計。
……
他一步一步地重新將整個神經網絡的知識梳理一遍。
他相信,這也是對面那位神孽所等待的內容。
這也是兩者之間的交換!
一種無須言說的默契。