資源簡介
BAT機器學習面試1000題系列 1
前言 1
BAT機器學習面試1000題系列 2
1 歸一化為什么能提高梯度下降法求解最優解的速度? 22
2 歸一化有可能提高精度 22
3 歸一化的類型 23
1)線性歸一化 23
2)標準差標準化 23
3)非線性歸一化 23
35. 什么是熵。機器學習 ML基礎 易 27
熵的引入 27
3.1 無偏原則 29
56. 什么是卷積。深度學習 DL基礎 易 38
池化,簡言之,即取區域平均或最大,如下圖所示(圖引自cs231n) 40
隨機梯度下降 46
批量梯度下降 47
隨機梯度下降 48
具體步驟: 50
引言 72
1. 深度有監督學習在計算機視覺領域的進展 73
1.1 圖像分類(Image Classification) 73
1.2 圖像檢測(Image Dection) 73
1.3 圖像分割(Semantic Segmentation) 74
1.4 圖像標注–看圖說話(Image Captioning) 75
1.5 圖像生成–文字轉圖像(Image Generator) 76
2.強化學習(Reinforcement Learning) 77
3深度無監督學習(Deep Unsupervised Learning)–預測學習 78
3.1條件生成對抗網絡(Conditional Generative Adversarial Nets,CGAN) 79
3.2 視頻預測 82
4 總結 84
5 參考文獻 84
一、從單層網絡談起 96
二、經典的RNN結構(N vs N) 97
三、N VS 1 100
四、1 VS N 100
五、N vs M 102
Recurrent Neural Networks 105
長期依賴(Long-Term Dependencies)問題 106
LSTM 網絡 106
LSTM 的核心思想 107
逐步理解 LSTM 108
LSTM 的變體 109
結論 110
196. L1與L2范數。機器學習 ML基礎 易 163
218. 梯度下降法的神經網絡容易收斂到局部最優,為什么應用廣泛?深度學習 DL基礎 中 178
@李振華,https://www.zhihu.com/question/68109802/answer/262143638 179
219. 請比較下EM算法、HMM、CRF。機器學習 ML模型 中 179
223. Boosting和Bagging 181
224. 邏輯回歸相關問題 182
225. 用貝葉斯機率說明Dropout的原理 183
227. 什么是共線性, 跟過擬合有什么關聯? 184
共線性:多變量線性回歸中,變量之間由于存在高度相關關系而使回歸估計不準確。 184
共線性會造成冗余,導致過擬合。 184
解決方法:排除變量的相關性/加入權重正則。 184
勘誤記 216
后記 219
代碼片段和文件信息
- 上一篇:rabbitmq-server-3.7.12
- 下一篇:自主設計平衡車PCB板
評論
共有 條評論