本篇主要提供神经网络与深度学习查鲁C.阿加沃尔(CharuC.电子书的pdf版本下载,本电子书下载方式为百度网盘方式,点击以上按钮下单完成后即会通过邮件和网页的方式发货,有问题请联系邮箱ebook666@outlook.com
书[0名0]: | 神[纟巠]网络与深度[0学0][*]|8083085 |
图书定价: | 149元 |
图书作者: | [美]查鲁·C. 阿加沃尔(Charu C. Aggarwal) |
出版社: | [1机1]械工业出版社 |
出版日期: | 2021/8/6 0:00:00 |
ISBN号: | 9787111686859 |
开本: | 16开 |
页数: | 406 |
版次: | 1-1 |
作者简介 |
关于我们 客户服务 友情链接 |
内容简介 |
本书涵盖了[纟巠]典和现代的深度[0学0][*]模型。章节分为三类:[0第0]1部分为神[纟巠]网络的基础。许多传统的[1机1]器[0学0][*]模型可以理解为神[纟巠]网络的特殊情况。前两章的重点是理解传统[1机1]器[0学0][*]和神[纟巠]网络之间的关系。支持向量[1机1]、线性/逻辑回归、奇异值分解、矩阵分解和推荐系统都是神[纟巠]网络的特例。本书将这些方[0法0]与特征工程方[0法0]如word2vec一起进行了研究。[0第0]2部分是神[纟巠]网络的基本原理。训练和正则化的详细讨论在[0第0]3章和[0第0]4章[扌是]供。[0第0]5章和[0第0]6章介绍了径向基函数(RBF)网络和受限的玻尔兹曼[1机1]。[0第0]3部分是神[纟巠]网络的高级[1主1]题:[0第0]7章和[0第0]8章讨论了循环神[纟巠]网络和卷积神[纟巠]网络。[0第0]9章和[0第0]10章介绍了几个高级[1主1]题,如深度强化[0学0][*]、神[纟巠]图像[1机1]、Kohonen自组织映[身寸]和生成对抗网络。这本书是为研究生、研究人员和实践者编写的。[0大0]量的练[*]和一个解决方案手册,以帮助在课堂教[0学0]。在可能的情况下,突出显示以应用程序为中心的视图,以便[扌是]供对每一类技术的实际用途的理解。 |
目录 |
译者序 前言 致谢 作者简介 [0第0]1章神[纟巠]网络概论111简介1 1.2神[纟巠]网络的基本架构3 1.2.1单层计算网络:感[0知0][1机1]3 1.2.2多层神[纟巠]网络13 1.2.3多层网络即计算图15 1.3利用反向传播训练神[纟巠]网络16 1.4神[纟巠]网络训练中的实际问题19 1.4.1过拟合问题19 1.4.2梯度消失与梯度爆炸问题22 1.4.3收敛问题22 1.4.4局部[*][0优0]和伪[*][0优0]22 1.4.5计算上的挑战23 1.5复合函数的能力之谜23 1.5.1非线性激活函数的重要性25 1.5.2利用深度以减少参数26 1.5.3非常规网络架构27 1.6常见网络架构28 1.6.1浅层模型模拟基础[1机1]器[0学0][*]方[0法0]28 1.6.2径向基函数网络29 1.6.3受限玻尔兹曼[1机1]29 1.6.4循环神[纟巠]网络30 1.6.5卷积神[纟巠]网络31 1.6.6层次特征工程与预训练模型32 1.7高级[1主1]题34 1.7.1强化[0学0][*]34 1.7.2分离数据存储和计算34 1.7.3生成对抗网络35 1.8两个基准35 1.8.1MNIST手写数字数据库35 1.8.2ImageNet数据库36 1.9总结37 1.10参考资料说明37 1.101视频讲座38 1.102软[亻牛]资源39 1.11练[*]39 [0第0]2章基于浅层神[纟巠]网络的[1机1]器[0学0][*]41 2.1简介41 2.2二分类模型的神[纟巠]架构42 2.2.1复[*]感[0知0][1机1]42 2.2.2[*]小二乘回归44 2.2.3逻辑回归47 2.2.4支持向量[1机1]49 2.3多分类模型的神[纟巠]架构50 2.3.1多分类感[0知0][1机1]51 2.3.2WestonWatkins支持向量[1机1]52 2.3.3多重逻辑回归(softmax分类器)53 2.3.4应用于多分类的分层softmax54 2.4反向传播可以用于特征选择和神[纟巠]网络的可解释性54 2.5使用自编码器进行矩阵分解55 2.5.1自编码器的基本原则55 2.5.2非线性激活函数59 2.5.3深度自编码器60 2.5.4应用于离群点检测62 2.5.5[0当0]隐藏层比输入层维数高时63 2.5.6其他应用63 2.5.7推荐系统:行索引到行值的预测65 2.5.8讨论67 2.6word2vec:简单神[纟巠]架构的应用67 2.6.1连续词袋的神[纟巠]嵌入68 2.6.2skipgram模型的神[纟巠]嵌入70 2.6.3word2vec(SGNS)是逻辑矩阵分解74 2.6.4原始skipgram模型是多项式矩阵分解76 2.7图嵌入的简单神[纟巠]架构76 2.7.1处理任意数量的边78 2.7.2多项式模型78 2.7.3与DeepWalk和[0no0]de2vec的联系78 2.8总结78 2.9参考资料说明79 2.10练[*]80 [0第0]3章深度神[纟巠]网络的训练823.1简介82 3.2反向传播的详细讨论83 3.2.1计算图抽象中的反向传播83 3.2.2前来拯救的动态规划87 3.2.3使用激活后变量的反向传播88 3.2.4使用激活前变量的反向传播89 3.2.5不同激活函数的更[亲斤]示例91 3.2.6以向量为中心的反向传播的解耦视图92 3.2.7多输出节点及隐藏节点下的损失函数94 3.2.8小批量随[1机1]梯度下降95 3.2.9用于解决共享[0权0]重的反向传播技巧96 3.2.10检查梯度计算的正确性97 3.3设置和初始化问题98 3.3.1调整[0超0]参数98 3.3.2特征预处理99 3.3.3初始化100 3.4梯度消失和梯度爆炸问题101 3.4.1对梯度比例影响的几何理解102 3.4.2部分解决:激活函数的选择103 3.4.3死亡神[纟巠]元和“脑损伤”104 3.5梯度下降策略105 3.5.1[0学0][*]率衰减105 3.5.2基于动量的[0学0][*]106 3.5.3参数特异的[0学0][*]率108 3.5.4悬崖和高阶不稳定性111 3.5.5梯度截断112 3.5.6二阶导数112 3.5.7Polyak平均118 3.5.8局部[0极0]小值和伪[0极0]小值119 3.6批归一化120 3.7加速与压缩的实用技巧123 3.7.1GPU加速123 3.7.2并行和分布式实现125 3.7.3模型压缩的算[0法0]技巧126 3.8总结128 3.9参考资料说明128 3.10练[*]130 [0第0]4章让深度[0学0][*]器[0学0][0会0]泛化132 4.1简介132 4.2偏差方差[0权0]衡135 4.3模型调[0优0]和[0评0]估中的泛化问题138 4.3.1用留出[0法0]和交叉验证[0法0]进行[0评0]估139 4.3.2[0大0]规模训练中的问题140 4.3.3如何检测需要收集更多的数据141 4.4基于惩罚的正则化141 4.4.1与注入噪声的联系142 4.4.2L1正则化143 4.4.3选择L1正则化还是L2正则化143 4.4.4对隐藏单元进行惩罚:[0学0][*]稀疏表示144 4.5集成方[0法0]145 4.5.1装袋和下采样145 4.5.2参数模型选择和平均146 4.5.3随[1机1]连接删除146 4.5.4Dropout147 4.5.5数据扰动集成149 4.6早停149 4.7无监督预训练150 4.7.1无监督预训练的变体153 4.7.2如何进行监督预训练154 4.8继续[0学0][*]与课程[0学0][*]154 4.8.1继续[0学0][*]155 4.8.2课程[0学0][*]156 4.9共享参数156 4.10无监督应用中的正则化157 4.101基于值的惩罚:稀疏自编码器157 4.102噪声注入:去噪自编码器157 4.103基于梯度的惩罚:收缩自编码器158 4.104隐藏层概率结构:变分自编码器161 4.11总结166 4.12参考资料说明166 4.13练[*]168 [0第0]5章径向基函数网络169 5.1简介169 5.2RBF网络的训练171 5.2.1训练隐藏层171 5.2.2训练输出层172 5.2.3正交[*]小二乘算[0法0]173 5.2.4完全监督[0学0][*]174 5.3RBF网络的变体和特例175 5.3.1感[0知0][1机1]准则分类175 5.3.2铰链损失分类175 5.3.3RBF促进线性可分离性的示例176 5.3.4应用于插值177 5.4与核方[0法0]的关系177 5.4.1RBF网络的特例:核回归177 5.4.2RBF网络的特例:核SVM178 5.4.3观察179 5.5总结179 5.6参考资料说明179 5.7练[*]180 [0第0]6章受限玻尔兹曼[1机1]181 6.1简介181 6.2Hopfield 网络 182 6.2.1训练网络的[*][0优0]状态配置183 6.2.2训练Hopfield网络184 6.2.3推荐器的构建及其局限性185 6.2.4[扌是]高Hopfield网络的表达能力186 6.3玻尔兹曼[1机1]187 6.3.1玻尔兹曼[1机1]如何生成数据188 6.3.2[0学0][*]玻尔兹曼[1机1]的[0权0]重188 6.4RBM的原理189 6.4.1训练RBM191 6.4.2对比发散算[0法0]192 6.4.3实际问题和即兴性193 6.5RBM的应用193 6.5.1降维和数据重构194 6.5.2使用RBM进行协同过滤196 6.5.3使用RBM进行分类198 6.5.4使用RBM建立[1主1]题模型201 6.5.5使用RBM进行多模态数据的[1机1]器[0学0][*]202 6.6在二元数据类型之外使用RBM203 6.7堆叠式RBM204 6.7.1无监督[0学0][*]206 6.7.2监督[0学0][*]206 6.7.3深度玻尔兹曼[1机1]和深度信念网络206 6.8总结207 6.9参考资料说明207 6.10练[*]208 [0第0]7章循环神[纟巠]网络210 7.1简介210 7.2循环神[纟巠]网络的架构212 7.2.1RNN语言建模实例214 7.2.2时间反向传播216 7.2.3[0双0]向循环神[纟巠]网络218 7.2.4多层循环神[纟巠]网络220 7.3训练循环神[纟巠]网络的挑战221 7.4回声状态网络224 7.5长短期记忆网络226 7.6门控循环单元228 7.7循环神[纟巠]网络的应用229 7.7.1应用于自动图像描述230 7.7.2序列到序列的[0学0][*]和[1机1]器翻译231 7.7.3应用于句子级别分类234 7.7.4利用语言特征进行词级别分类235 7.7.5时间序列预测236 7.7.6时序推荐系统237 7.7.7蛋白质二级结构预测239 7.7.8端到端语音识别239 7.7.9手写识别239 7.8总结240 7.9参考资料说明240 7.10练[*]241 [0第0]8章卷积神[纟巠]网络243 8.1简介243 8.1.1历[0史0]观点和生物启发243 8.1.2卷积神[纟巠]网络的广义发现244 8.2卷积神... |