
Python 實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)培訓(xùn)
1 深度學(xué)習(xí)基本概念
2 反向傳播算法
3 NumPy 基本運(yùn)算
4 神經(jīng)網(wǎng)絡(luò)的應(yīng)用
1
深度學(xué)習(xí)基本概念
1.如何讓機(jī)器“學(xué)習(xí)”
2.神經(jīng)網(wǎng)絡(luò)的概念
3.有監(jiān)督與無監(jiān)督學(xué)習(xí)的區(qū)別
4.回歸與分類的區(qū)別
5.損失函數(shù)的概念
6.梯度下降算法介紹 7.超參數(shù)的概念
2
導(dǎo)數(shù)、梯度及矩陣運(yùn)算
1.導(dǎo)數(shù)、偏導(dǎo)、梯度、鏈?zhǔn)椒▌t
2.矩陣運(yùn)算基本法則
3.NumPy基本運(yùn)算介紹
3
反向傳播算法
1.鏈?zhǔn)椒▌t與“計(jì)算圖”的概念
2.反向傳播算法
4
淺層神經(jīng)網(wǎng)絡(luò)識別英文字母
1.“淺層”與“深度”的區(qū)別
2.泛化性能 3.隨機(jī)梯度下降算法
4.如何對矩陣求導(dǎo)
5.編寫我們的損失層
5
深度學(xué)習(xí)實(shí)戰(zhàn)
1.梯度消失問題
2.交叉熵?fù)p失函數(shù)
