目录
赞誉
前言
第1章 人工智能概述1
1.1 全面了解人工智能1
1.1.1 人工智能定义1
1.1.2 弱人工智能、强人工智能与超人工智能2
1.1.3 人工智能三大主义3
1.1.4 机器学习与深度学习4
1.2 人工智能发展历程5
1.3 深度学习的崛起之路7
1.3.1 人脸识别的起源7
1.3.2 自动驾驶的福音7
1.3.3 超越人类的AI智能体8
1.3.4 懂你的AI8
1.3.5 奔跑、飞行以及玩游戏的AI8
1.3.6 人人都可以创造属于自己的AI8
1.4 深度学习的发展9
1.4.1 计算机视觉9
1.4.2 自然语言处理10
1.4.3 语音识别11
1.5 下一代人工智能11
1.6 参考文献13
第2章 自动化人工智能14
2.1 AutoML概述14
2.1.1 什么是自动化14
2.1.2 AutoML的起源与发展15
2.2 AutoML的研究意义17
2.2.1 AutoML的研究动机17
2.2.2 AutoML的意义和作用18
2.3 现有AutoML平台产品21
2.3.1 谷歌Cloud AutoML21
2.3.2 百度EasyDL23
2.3.3 阿里云PAI24
2.3.4 探智立方DarwinML28
2.3.5 第四范式AI ProphetAutoML29
2.3.6 智易科技30
2.4 参考文献31
第3章 机器学习概述32
3.1 机器学习的发展32
3.1.1 “机器学习”名字的由来32
3.1.2 “机器学习”的前世今生33
3.1.3 “机器学习”的理论基础34
3.2 机器学习的实现方法36
3.2.1 分类问题36
3.2.2 回归问题38
3.2.3 聚类问题39
3.3 自动化机器学习40
3.3.1 机器学习面临的问题40
3.3.2 为什么会产生AutoML41
3.4 参考文献41
第4章 自动化特征工程43
4.1 特征工程43
4.1.1 什么是特征43
4.1.2 什么是特征工程44
4.2 特征工程处理方法45
4.2.1 特征选择45
4.2.2 数据预处理47
4.2.3 特征压缩48
4.3 手工特征工程存在的问题49
4.4 自动化特征工程50
4.4.1 什么是自动化特征工程50
4.4.2 机器学习和深度学习的特征工程51
4.5 自动化特征工程生成方法52
4.5.1 深度特征合成算法52
4.5.2 Featuretools自动特征提取52
4.5.3 基于时序数据的自动化特征工程56
4.6 自动化特征工程工具67
4.6.1 自动化特征工程系统67
4.6.2 自动化特征工程平台71
4.7 参考文献75
第5章 自动化模型选择76
5.1 模型选择76
5.2 自动化模型选择77
5.2.1 基于贝叶斯优化的自动化模型选择78
5.2.2 基于进化算法的自动化模型选择84
5.2.3 分布式自动化模型选择86
5.2.4 自动化模型选择的相关平台92
5.3 自动集成学习94
5.3.1 集成学习基础94
5.3.2 集成学习之结合策略97
5.3.3 自动化模型集成98
5.4 参考文献99
第6章 自动化超参优化101
6.1 概述101
6.1.1 问题定义103
6.1.2 搜索空间103
6.1.3 搜索策略103
6.1.4 评价预估104
6.1.5 经验迁移加速105
6.2 基本方法105
6.2.1 网格搜索105
6.2.2 随机搜索105
6.3 基于模型的序列超参优化106
6.3.1 代理模型的选择108
6.3.2 代理模型的更新108
6.3.3 新超参组的选择109
6.3.4 基于高斯过程回归的序列超参优化111
6.3.5 基于随机森林算法代理的序列超参优化112
6.3.6 基于TPE算法的序列超参优化114
6.3.7 SMBO的进阶技巧114
6.4 基于进化算法的自动化超参优化115
6.4.1 基于进化策略的自动化超参优化115
6.4.2 基于粒子群算法的自动化超参优化116
6.5 基于迁移学习的超参优化加速方法117
6.5.1 经验迁移机制117
6.5.2 经验迁移衰退机制117
6.5.3 经验迁移权重机制117
6.5.4 优化过程的试点机制118
6.6 参考文献118
第7章 深度学习基础120
7.1 深度学习简介120
7.1.1 什么是神经元120
7.1.2 人工神经网络的发展历程121
7.1.3 深度学习方法123
7.2 卷积神经网络简介123
7.2.1 卷积层123
7.2.2 池化层125
7.2.3 全连接层126
7.3 CNN经典模型126
7.3.1 LeNet126
7.3.2 AlexNet127
7.3.3 VGGNet128
7.3.4 GoogLeNet129
7.3.5 ResNet130
7.3.6 DenseNet131
7.4 循环神经网络132
7.4.1 基本循环神经模型132
7.4.2 LSTM模型133
7.4.3 GRU模型134
7.5 参考文献134
第8章 自动化深度学习概述136
8.1 深度学习vs自动化深度学习136
8.2 什么是NAS136
8.2.1 问题定义137
8.2.2 搜索策略139
8.2.3 加速方案140
8.3 NAS方法分类140
第9章 基于强化学习的AutoDL142
9.1 强化学习基础142
9.1.1 强化学习简介142
9.1.2 基本要素及问题定义144
9.1.3 发展历史144
9.1.4 基本方法146
9.2 两类基本模型147
9.2.1 TD经典算法148
9.2.2 DQN系列算法149
9.2.3 策略梯度算法152
9.3 强化学习之Actor-Critic系列154
9.3.1 Actor-Critic算法154
9.3.2 确定性策略梯度155
9.3.3 深度确定性策略梯度157
9.3.4 异步优势Actor-Critic算法158
9.3.5 近端策略优化160
9.3.6 分布式近端策略优化164
9.4 基于强化学习的自动搜索166
9.5 基本搜索方法166
9.5.1 基于层的搜索166
9.5.2 基于块的搜索169
9.5.3 基于连接的搜索171
9.6 进阶搜索方法173
9.6.1 逆强化学习173
9.6.2 图超网络174
9.6.3 蒙特卡洛树搜索175
9.6.4 知识提炼(教师网络)177
9.7 参考文献179
第10章 基于进化算法的AutoDL181
10.1 启发式算法181
10.1.1 随机搜索182
10.1.2 近邻搜索183
10.1.3 进化计算187
10.1.4 启发式算法的局限性189
10.2 初代进化算法190
10.2.1 基本术语190
10.2.2 基础算子191
10.2.3 遗传算法196
10.2.4 进化策略198
10.2.5 进化规划199
10.3 其他近代进化算法200
10.3.1 遗传编程算法簇200
10.3.2 群体算法—以PSO为例205
10.3.3 文化基因算法207
10.3.4 差分进化算法208
10.3.5 分布估计算法208
10.4 进化神经网络209
10.4.1 简介209
10.4.2 神经网络编码方式210
10.4.3 竞争约定211
10.4.4 网络结构的创新性212
10.4.5 NAS之进化算法212
10.5 细粒度的神经进化(NEAT算法)213
10.5.1 基因编码214
10.5.2 基因的可追溯性216
10.5.3 通过物种形成保护创新结构216
10.6 粗粒度的神经进化(CoDeep-NEAT算法)218
10.6.1 DeepNEAT算法218
10.6.2 CoDeepNEAT算法219
10.7 block-level的进化220
10.7.1 Genetic CNN算法220
10.7.2 CGP-CNN方法222
10.8 基于node-level的网络架构进化224
10.8.1 思想简介224
10.8.2 基本算法设计225
10.8.3 信息复用与加速226
10.9 基于NAS搜索空间的网络架构进化227
10.9.1 思想简介227
10.9.2 基本算法设计227
10.9.3 信息复用与加速228
10.10 基于层次拓扑表示的网络进化方法228
10.10.1 思想简介228
10.10.2 分级表示229
10.10.3 随机的层次分级进化230
10.11 参考文献230
第11章 AutoDL高阶233
11.1 搜索加速之权值共享法233
11.1.1 ENAS233
11.1.2 基于稀疏优化的NAS235
11.2 基于one-shot模型的架构搜索236
11.2.1 超网络的应用236
11.2.2 基于one-shot的搜索237
11.2.3 实例级架构搜索238
11.2.4 单路径超网络240
11.3 搜索加速之代理评估模型241
11.3.1 代理模型241
11.3.2 PNAS中的LSTM代理242
11.4 基于网络态射法的神经架构搜索244
11.4.1 网络态射的提出244
11.4.2 什么是网络态射244
11.4.3 网络态射+迂回爬山法246
11.5 可微分神经架构搜索247
11.5.1 可微分神经架构搜索的来源247
11.5.2 可微分神经架构搜索的方法248
11.6 参考文献250
第12章 垂直领域的AutoDL252
12.1 AutoCV252
12.1.1 Auto-DeepLab(图像语义分割)252
12.1.2 随机连线神经网络257
12.2 AutoVoice261
12.2.1 关键词定位问题定义261
12.2.2 随机自适应架构搜索原理262
12.2.3 SANAS模型262
12.3 AutoNLP263
12.3.1 什么是自注意力机制263
12.3.2 初识Transformer模型265
12.3.3 Evolved Transformer结构266
12.4 参考文献270
第13章 自动化模型压缩与加速271
13.1 从生物角度看模型压缩的重要性271
13.1.1 人脑神经元的修剪271
13.1.2 大脑的冗余性272
13.1.3 修剪的意义273
13.2 模型压缩发展概述274
13.3 入门级方法:量化技术275
13.3.1 量化技术275
13.3.2 二值化网络276
13.3.3 TensorRT277
13.4 初级方法:修剪法278
13.4.1 修剪法278
13.4.2 修剪与修复279
13.5 中级方法:稀疏化技术281
13.5.1 正则化281
13.5.2 知识精炼281
13.5.3 张量分解281
13.6 高级方法:轻量级模型设计284
13.6.1 简化卷积操作284
13.6.2 深度可分离卷积285
13.6.3 改进的Inception287
13.7 自动化模型压缩技术289
13.7.1 AMC算法289
13.7.2 PocketFlow框架291
13.8 基于AutoDL的轻量级模型292
13.8.1 问题定义292
13.8.2 帕累托最优问题293
13.8.3 进化算法的应用294
13.8.4 强化学习的应用296
13.8.5 可微分架构搜索298
13.9 参考文献300
第14章 元学习302
14.1 什么是元学习302
14.1.1 基本介绍302
14.1.2 经典案例303
14.1.3 深入了解元学习304
14.1.4 元学习应用的发展306
14.2 元学习的通用流程306
14.2.1 基本定义306
14.2.2 流程框架306
14.3 从模型评估中学习307
14.3.1 任务无关推荐308
14.3.2 参数空间设计308
14.3.3 参数转换309
14.3.4 学习曲线310
14.4 从任务属性中学习310
14.4.1 元特征310
14.4.2 学习元特征311
14.4.3 相似任务的热启动优化311
14.4.4 元模型311
14.4.5 管道合成312
14.4.6 是否调整312
14.5 从先前模型中学习312
14.5.1 迁移学习313
14.5.2 神经网络中的元学习313
14.5.3 小样本学习314
14.5.4 监督学习之外的方法315
14.6 基于模型的方法316
14.6.1 记忆增强神经网络316
14.6.2 元网络317
14.6.3 模型无关的元学习方法317
14.6.4 利用注意力机制的方法319
14.6.5 基于时间卷积的方法320
14.6.6 基于损失预测的方法321
14.6.7 元强化学习321
14.7 基于度量的方法322
14.7.1 Siamese网络322
14.7.2 匹配网络324
14.7.3 关系网络324
14.7.4 原型网络325
14.8 基于优化的方法326
14.8.1 基于LSTM网络的元学习者326
14.8.2 未知模型的元学习326
14.8.3 Reptile:可扩展元学习方法327
14.8.4 基于梯度预测的方法327
14.9 参考文献329
结束语332
· · · · · · (
收起)