第1章 機器學習概述
1.1 機器學習介紹
1.1.1 機器學習的特點
1.1.2 機器學習的對象
1.1.3 機器學習的應用
1.2 機器學習分類
1.2.1 按任務類型分類
1.2.2 按學習方式分類
1.2.3 生成模型與判彆模型
1.3 機器學習方法三要素
1.3.1 模型
1.3.2 策略
1.3.3 算法
1.3.4 小結
第2章 機器學習工程實踐
2.1 模型評估指標
2.1.1 迴歸模型的評估指標
2.1.2 分類模型的評估指標
2.1.3 聚類模型的評估指標
2.1.4 常用距離公式
2.2 模型復雜度度量
2.2.1 偏差與方差
2.2.2 過擬閤與正則化
2.3 特徵工程與模型調優
2.3.1 數據挖掘項目流程
2.3.2 特徵工程
2.3.3 模型選擇與模型調優
第3章 綫性迴歸
3.1 問題引入
3.2 綫性迴歸模型
3.2.1 模型建立
3.2.2 策略確定
3.2.3 算法求解
3.2.4 綫性迴歸模型流程
3.3 綫性迴歸的scikit-learn實現
3.3.1 普通綫性迴歸
3.3.2 Lasso迴歸
3.3.3 嶺迴歸
3.3.4 ElasticNet迴歸
3.4 綫性迴歸實例
3.5 小結
第4章 樸素貝葉斯
4.1 概述
4.2 相關原理
4.2.1 樸素貝葉斯基本原理
4.2.2 原理的進一步闡述
4.2.3 後驗概率最大化的含義
4.2.4 拉普拉斯平滑
4.3 樸素貝葉斯的三種形式及scikit-learn實現
4.3.1 高斯型
4.3.2 多項式型
4.3.3 伯努利型
4.4 中文文本分類項目
4.4.1 項目簡介
4.4.2 項目過程
4.4.3 完整程序實現
4.5 小結
第5章 K近鄰
5.1 概述
5.2 K近鄰分類原理
5.2.1 K值的選擇
5.2.2 距離度量
5.2.3 分類決策規則
5.2.4 K近鄰分類算法過程
5.3 K近鄰迴歸原理
5.3.1 迴歸決策規則
5.3.2 K近鄰迴歸算法過程
5.4 搜索優化——KD樹
5.4.1 構造KD樹
5.4.2 搜索KD樹
5.5 K近鄰的scikit-learn實現
5.5.1 K近鄰分類
5.5.2 K近鄰迴歸
5.6 K近鄰應用實例
5.7 小結
第6章 決策樹
6.1 概述
6.2 特徵選擇
6.2.1 信息增益
6.2.2 信息增益比
6.2.3 基尼指數
6.3 決策樹生成
6.3.1 ID3決策樹
6.3.2 C4.5決策樹
6.3.3 CART決策樹
6.4 決策樹剪枝
6.5 決策樹的scikit-learn實現
6.6 決策樹應用於文本分類
6.7 小結
第7章 Logistic迴歸
7.1 Logistic迴歸概述
7.2 Logistic迴歸原理
7.2.1 Logistic迴歸模型
7.2.2 Logistic迴歸學習策略
7.2.3 Logistic迴歸優化算法
7.3 多項Logistic迴歸
7.4 Logistic迴歸的scikit-learn實現
7.5 Logistic迴歸實例
7.6 小結
第8章 支持嚮量機
8.1 感知機
8.1.1 感知機模型
8.1.2 感知機學習策略
8.1.3 感知機優化算法
8.1.4 感知機模型整體流程
8.1.5 小結
8.2 硬間隔支持嚮量機
8.2.1 引入
8.2.2 推導
8.3 軟間隔支持嚮量機
8.4 閤頁損失函數
8.5 非綫性支持嚮量機
8.6 SVM的scikit-learn實現
8.6.1 綫性SVM
8.6.2 非綫性SVM
8.7 SVM實例
8.8 小結
第9章 隨機森林
9.1 Bagging
9.2 隨機森林概念
9.3 RF的推廣——extra trees
9.4 RF的scikit-learn實現
9.5 RF的scikit-learn使用實例
9.5.1 程序
9.5.2 結果及分析
9.5.3 擴展
9.6 小結
第10章 AdaBoost
10.1 AdaBoost的結構
10.1.1 AdaBoost的工作過程
10.1.2 AdaBoost多分類問題
10.1.3 AdaBoost迴歸問題
10.2 AdaBoost的原理
10.3 AdaBoost的scikit-learn實現
10.4 AdaBoost應用實例
10.5 AdaBoost模型的優缺點
第11章 提升樹
11.1 提升樹的定義
11.2 梯度提升樹
11.2.1 梯度提升樹的原理推導
11.2.2 GBDT和GBRT模型的處理過程
11.2.3 梯度提升模型的scikit-learn實現
11.2.4 梯度提升模型的scikit-learn使用實例
11.2.5 GBDT模型的優缺點
11.3 XGBoost
11.3.1 XGBoost的原理
11.3.2 XGBoost調參
11.3.3 XGBoost與GBDT的比較
第12章 聚類
12.1 聚類問題介紹
12.2 K-Means聚類
12.2.1 K-Means聚類過程和原理
12.2.2 K-Means算法優化
12.2.3 小結
12.2.4 K-Means應用實例
12.3 層次聚類
12.3.1 層次聚類的過程和原理
12.3.2 小結
12.3.3 層次聚類應用實例
12.4 密度聚類算法
12.4.1 密度聚類算法過程和原理
12.4.2 密度聚類小結
12.4.3 密度聚類應用實例
12.5 譜聚類
12.5.1 譜聚類的過程和原理
12.5.2 譜聚類小結
12.5.3 譜聚類應用實例
12.6 高斯混閤模型
12.6.1 高斯混閤聚類過程和原理
12.6.2 EM算法
12.6.3 小結
12.6.4 GMM應用實例
第13章 降維
13.1 奇異值分解
13.1.1 矩陣的特徵分解
13.1.2 奇異值分解
13.2 主成分分析
13.2.1 PCA原理推導
13.2.2 核化PCA
13.2.3 PCA/KPCA的scikit-learn實現
13.3 綫性判彆分析
13.3.1 LDA原理推導
13.3.2 LDA與PCA的比較
13.3.3 LDA應用實例
13.4 局部綫性嵌入
13.4.1 局部綫性嵌入介紹
13.4.2 局部綫性嵌入過程和原理
13.4.3 LLE應用實例
第14章 Word2Vec和Doc2Vec詞嚮量模型
14.1 Word2Vec
14.1.1 Word2Vec概述
14.1.2 基於Hierarchical Softmax方法的CBOW模型
14.1.3 基於Hierarchical Softmax方法的Skip-Gram模型
14.1.4 基於Negative Sampling方法的CBOW模型
14.1.5 基於Negative Sampling方法的Skip-Gram模型
14.1.6 Word2Vec應用實例
14.2 Doc2Vec模型
14.2.1 Doc2Vec模型原理
14.2.2 Doc2Vec應用實例
第15章 深度神經網絡
15.1 深度學習
15.1.1 概述
15.1.2 深度學習發展曆史
15.2 神經網絡原理
15.2.1 前嚮傳播
15.2.2 反嚮傳播
15.2.3 實例
15.2.4 幾種常用激活函數
15.2.5 梯度消失與梯度爆炸
15.2.6 幾種常用的優化算法
15.3 神經網絡應用實例
15.4 小結
· · · · · · (
收起)