如何從普通程序員向人工智能靠攏實(shí)踐
說(shuō)說(shuō)我學(xué)習(xí)深度學(xué)習(xí)的經(jīng)歷吧,從開(kāi)始學(xué)習(xí)到現(xiàn)在大概有4個(gè)月,只能算新手,剛好可以回答新手問(wèn)題。
先說(shuō)編程:自認(rèn)會(huì)用C++, 熟悉Python
英語(yǔ)水平:中等,能很快讀懂英文科學(xué)文獻(xiàn)
最開(kāi)始對(duì)人工智能/深度學(xué)習(xí)感興趣是因?yàn)橄胗盟囈辉囎匀徽Z(yǔ)言生成,后來(lái)想到一個(gè)物理方面的題目,預(yù)計(jì)可以用深度學(xué)習(xí)技術(shù)解決,開(kāi)始接觸深度神經(jīng)網(wǎng)絡(luò)。記錄一下學(xué)習(xí)歷程,
1. 安裝 Tensorflow(google 開(kāi)源的深度學(xué)習(xí)程序), 嘗試?yán)锩孀詈?jiǎn)單的例子MNIST 獲得激勵(lì)。
2. 之后嘗試通過(guò)讀書(shū)(看視頻)理解最簡(jiǎn)單的全連接神經(jīng)網(wǎng)絡(luò)
先搜索找到答案:為什么要Go Deep?
(1)神經(jīng)網(wǎng)絡(luò)中輸入層,隱藏層,輸出層之間矩陣乘積的維度變化。
(2)Weight, Bias 這些是什么,改變它們有什么結(jié)果。
(3)激勵(lì)函數(shù)是什么,有什么作用,有哪些常用的激勵(lì)函數(shù)
(4)誤差如何向后傳遞,網(wǎng)絡(luò)如何通過(guò)最小化誤差函數(shù)更新,有哪些常用的優(yōu)化方法
以上這些在一本交互式電子書(shū)中可以找到答案:
Neural networks and deep learning
(5) 如何對(duì)權(quán)重正規(guī)化,L1, L2, BatchNormalization, (這些在以后真正應(yīng)用的時(shí)候再看)
Deep Learning chapter 7 for L1, L2 regulation.
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift (