0 0 0

深度学习之美:AI时代的数据处理与最佳实践.epub

静守这微光
3天前 130
我用夸克网盘分享了「深度学习之美:AI时代的数据处理与最佳实践.epub」,点击链接即可保存。打开「夸克APP」在线查看,支持多种文档格式转换。
深度学习之美 作者: 张玉宏 出版社: 电子工业出版社 出品方: 博文视点 副标题: AI时代的数据处理与最佳实践 出版年: 2018-6 页数: 682 定价: 128 装帧: 平装 丛书: 博文视点AI系列 ISBN: 9787121342462

内容简介

深度学习是人工智能的前沿技术。《深度学习之美:AI时代的数据处理与最佳实践》深入浅出地介绍了深度学习的相关理论和实践,《深度学习之美:AI时代的数据处理与最佳实践》共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。 《深度学习之美:AI时代的数据处理与最佳实践》结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。

作者简介

张玉宏,2012年于电子科技大学取得博士学位,2009-2011年美国西北大学访问学者,电子科技大学博士后,现执教于河南工业大学。 中国计算机协会(CCF)会员,CCF YOCSEF郑州2018-2019年度副主席,ACM/IEEE会员。《品味大数据》一书作者。主要研究方向为大数据、人工智能、技术哲学。发表学术论文20余篇,国内外学术作品7部。阿里云云栖社区专栏作家,博文累计阅读逾百万次。

网友热评

特洛伊: 很不错,解答了我很多困惑。以前知道是什么,但不知道为什么。这书确实不错? 王占华: 我确定有很多水军,书写的也不算差,但不至于这么厚颜无耻的夸。要想看入门的书籍,日本人写的那本>是最好的。 小恩小惠: 看了一部分,还没读完,感觉还挺好的,适合初学者!期待后面的内容!

图书目录

第1章一入侯门“深”似海,深度学习深几许1 1.1深度学习的巨大影响2 1.2什么是学习4 1.3什么是机器学习4 1.4机器学习的4个象限5 1.5什么是深度学习6 1.6“恋爱”中的深度学习7 1.7深度学习的方法论9 1.8有没有浅层学习13 1.9本章小结14 1.10请你思考14 参考资料14 第2章人工“碳”索意犹尽,智能“硅”来未可知16 2.1信数据者得永生吗17 2.2人工智能的“江湖定位”18 2.3深度学习的归属19 2.4机器学习的形式化定义21 2.5为什么要用神经网络24 2.6人工神经网络的特点26 2.7什么是通用近似定理27 2.8本章小结31 2.9请你思考31 参考资料31 第3章“机器学习”三重门,“中庸之道”趋若人33 3.1监督学习34 3.1.1感性认知监督学习34 3.1.2监督学习的形式化描述35 3.1.3k-近邻算法37 3.2非监督学习39 3.2.1感性认识非监督学习39 3.2.2非监督学习的代表—K均值聚类41 3.3半监督学习45 3.4从“中庸之道”看机器学习47 3.5强化学习49 3.6本章小结52 3.7请你思考53 参考资料53 第4章人生苦短对酒歌,我用Python乐趣多55 4.1Python概要56 4.1.1为什么要用Python56 4.1.2Python中常用的库58 4.2Python的版本之争61 4.3Python环境配置65 4.3.1Windows下的安装与配置65 4.3.2Mac下的安装与配置72 4.4Python编程基础76 4.4.1如何运行Python代码77 4.4.2代码缩进79 4.4.3注释80 4.4.4Python中的数据结构81 4.4.5函数的设计93 4.4.6模块的导入与使用101 4.4.7面向对象程序设计102 4.5本章小结112 4.6请你思考112 参考资料113 第5章机器学习终觉浅,Python带我来实践114 5.1线性回归115 5.1.1线性回归的概念115 5.1.2简易线性回归的Python实现详解119 5.2k-近邻算法139 5.2.1k-近邻算法的三个要素140 5.2.2k-近邻算法实战143 5.2.3使用scikit-learn实现k-近邻算法155 5.3本章小结162 5.4请你思考162 参考资料162 第6章神经网络不胜语,M-P模型似可寻164 6.1M-P神经元模型是什么165 6.2模型背后的那些人和事167 6.3激活函数是怎样的一种存在175 6.4什么是卷积函数176 6.5本章小结177 6.6请你思考178 参考资料178 第7章HelloWorld感知机,懂你我心才安息179 7.1网之初,感知机180 7.2感知机名称的由来180 7.3感性认识“感知机”183 7.4感知机是如何学习的185 7.5感知机训练法则187 7.6感知机的几何意义190 7.7基于Python的感知机实战191 7.8感知机的表征能力196 7.9本章小结199 7.10请你思考199 参考资料199 第8章损失函数减肥用,神经网络调权重201 8.1多层网络解决“异或”问题202 8.2感性认识多层前馈神经网络205 8.3是浅而“胖”好,还是深而“瘦”佳209 8.4分布式特征表达210 8.5丢弃学习与集成学习211 8.6现实很丰满,理想很骨感212 8.7损失函数的定义213 8.8热力学定律与梯度弥散215 8.9本章小结216 8.10请你思考216 参考资料217 第9章山重水复疑无路,最快下降问梯度219 9.1“鸟飞派”还飞不220 9.21986年的那篇神作221 9.3多层感知机网络遇到的大问题222 9.4神经网络结构的设计225 9.5再议损失函数227 9.6什么是梯度229 9.7什么是梯度递减231 9.8梯度递减的线性回归实战235 9.9什么是随机梯度递减238 9.10利用SGD解决线性回归实战240 9.11本章小结247 9.12请你思考248 参考资料248 第10章BP算法双向传,链式求导最缠绵249 10.1BP算法极简史250 10.2正向传播信息251 10.3求导中的链式法则255 10.4误差反向传播264 10.4.1基于随机梯度下降的BP算法265 10.4.2输出层神经元的权值训练267 10.4.3隐含层神经元的权值训练270 10.4.4BP算法的感性认知273 10.4.5关于BP算法的补充说明278 10.5BP算法实战详细解释280 10.5.1初始化网络280 10.5.2信息前向传播282 10.5.3误差反向传播285 10.5.4训练网络(解决异或问题)288 10.5.5利用BP算法预测小麦品种的分类293 10.6本章小结301 10.7请你思考302 参考资料304 第11章一骑红尘江湖笑,TensorFlow谷歌造305 11.1TensorFlow概述306 11.2深度学习框架比较309 11.2.1Theano309 11.2.2Keras310 11.2.3Caffe311 11.2.4PyTorch312 11.3TensorFlow的安装313 11.3.1Anaconda的安装313 11.3.2TensorFlow的CPU版本安装315 11.3.3TensorFlow的源码编译323 11.4JupyterNotebook的使用331 11.4.1JupyterNotebook的由来331 11.4.2JupyterNotebook的安装333 11.5TensorFlow中的基础语法337 11.5.1什么是数据流图338 11.5.2构建第一个TensorFlow数据流图339 11.5.3可视化展现的TensorBoard342 11.5.4TensorFlow的张量思维346 11.5.5TensorFlow中的数据类型348 11.5.6TensorFlow中的操作类型353 11.5.7TensorFlow中的Graph对象356 11.5.8TensorFlow中的Session358 11.5.9TensorFlow中的placeholder361 11.5.10TensorFlow中的Variable对象363 11.5.11TensorFlow中的名称作用域365 11.5.12张量的Reduce方向367 11.6手写数字识别MNIST372 11.6.1MNIST数据集简介373 11.6.2MNIST数据的获取与预处理375 11.6.3分类模型的构建—SoftmaxRegression378 11.7TensorFlow中的Eager执行模式394 11.7.1Eager执行模式的背景394 11.7.2Eager执行模式的安装395 11.7.3Eager执行模式的案例395 11.7.4Eager执行模式的MNIST模型构建398 11.8本章小结401 11.9请你思考402 参考资料403 第12章全面连接困何处,卷积网络显神威404 12.1卷积神经网络的历史405 12.1.1眼在何方?路在何方?405 12.1.2卷积神经网络的历史脉络406 12.1.3那场著名的学术赌局410 12.2卷积神经网络的概念412 12.2.1卷积的数学定义412 12.2.2生活中的卷积413 12.3图像处理中的卷积414 12.3.1计算机“视界”中的图像414 12.3.2什么是卷积核415 12.3.3卷积在图像处理中的应用418 12.4卷积神经网络的结构420 12.5卷积层要义422 12.5.1卷积层的设计动机422 12.5.2卷积层的局部连接427 12.5.3卷积层的3个核心概念428 12.6细说激活层434 12.6.1两个看似闲扯的问题434 12.6.2追寻问题的本质435 12.6.3ReLU的理论基础437 12.6.4ReLU的不足之处441 12.7详解池化层442 12.8勿忘全连接层445 12.9本章小结446 12.10请你思考447 参考资料448 第13章纸上谈兵终觉浅,绝知卷积要编程450 13.1TensorFlow的CNN架构451 13.2卷积层的实现452 13.2.1TensorFlow中的卷积函数452 13.2.2图像处理中的常用卷积核456 13.3激活函数的使用460 13.3.1Sigmoid函数460 13.3.2Tanh函数461 13.3.3修正线性单元——ReLU462 13.3.4Dropout函数462 13.4池化层的实现466 13.5规范化层470 13.5.1为什么需要规范化470 13.5.2局部响应规范化472 13.5.3批规范化475 13.6卷积神经网络在MNIST分类器中的应用480 13.6.1数据读取480 13.6.2初始化权值和偏置480 13.6.3卷积和池化482 13.6.4构建第一个卷积层482 13.6.5构建第二个卷积层483 13.6.6实现全连接层484 13.6.7实现Dropout层485 13.6.8实现Readout层485 13.6.9参数训练与模型评估485 13.7经典神经网络——AlexNet的实现488 13.7.1AlexNet的网络架构488 13.7.2数据读取490 13.7.3初始化权值和偏置491 13.7.4卷积和池化491 13.7.5局部响应归一化层492 13.7.6构建卷积层492 13.7.7实现全连接层和Dropout层493 13.7.8实现Readout层494 13.7.9参数训练与模型评估494 13.8本章小结495 13.9请你思考496 参考资料496 第14章循环递归RNN,序列建模套路深498 14.1你可能不具备的一种思维499 14.2标准神经网络的缺陷所在501 14.3RNN简史502 14.3.1Hopfield网络503 14.3.2Jordan递归神经网络504 14.3.3Elman递归神经网络505 14.3.4RNN的应用领域506 14.4RNN的理论基础506 14.4.1Elman递归神经网络506 14.4.2循环神经网络的生物学机理508 14.5RNN的结构509 14.6循环神经网络的训练512 14.6.1问题建模512 14.6.2确定优化目标函数513 14.6.3参数求解513 14.7基于RNN的TensorFlow实战——正弦序列预测514 14.7.1生成数据516 14.7.2定义权值和偏置517 14.7.3前向传播519 14.7.4定义损失函数522 14.7.5参数训练与模型评估522 14.8本章小结524 14.9请你思考524 参考资料525 第15章LSTM长短记,长序依赖可追忆526 15.1遗忘是好事还是坏事527 15.2施密德胡伯是何人527 15.3为什么需要LSTM529 15.4拆解LSTM530 15.4.1传统RNN的问题所在530 15.4.2改造的神经元531 15.5LSTM的前向计算533 15.5.1遗忘门534 15.5.2输入门535 15.5.3候选门536 15.5.4输出门537 15.6LSTM的训练流程539 15.7自然语言处理的一个假设540 15.8词向量表示方法542 15.8.1独热编码表示543 15.8.2分布式表示545 15.8.3词嵌入表示547 15.9自然语言处理的统计模型549 15.9.1NGram模型549 15.9.2基于神经网络的语言模型550 15.9.3基于循环神经网络的语言模型553 15.9.4LSTM语言模型的正则化556 15.10基于PennTreeBank的自然语言处理实战560 15.10.1下载及准备PTB数据集561 15.10.2导入基本包562 15.10.3定义相关的参数562 15.10.4语言模型的实现563 15.10.5训练并返回perplexity值573 15.10.6定义主函数并运行575 15.10.7运行结果578 15.11本章小结579 15.12请你思考580 参考资料580 第16章卷积网络虽动人,胶囊网络更传“神”583 16.1从神经元到神经胶囊584 16.2卷积神经网络面临的挑战584 16.3神经胶囊的提出588 16.4神经胶囊理论初探591 16.4.1神经胶囊的生物学基础591 16.4.2神经胶囊网络的哲学基础592 16.5神经胶囊的实例化参数594 16.6神经胶囊的工作流程598 16.6.1神经胶囊向量的计算598 16.6.2动态路由的工作机理600 16.6.3判断多数字存在性的边缘损失函数606 16.6.4胶囊神经网络的结构607 16.7CapsNet的验证与实验614 16.7.1重构和预测效果614 16.7.2胶囊输出向量的维度表征意义616 16.7.3重叠图像的分割617 16.8神经胶囊网络的TensorFlow实现618 16.8.1导入基本包及读取数据集619 16.8.2图像输入619 16.8.3卷积层Conv1的实现619 16.8.4PrimaryCaps层的实现620 16.8.5全连接层622 16.8.6路由协议算法628 16.8.7估计实体出现的概率630 16.8.8损失函数的实现631 16.8.9额外设置639 16.8.10训练和评估640 16.8.11运行结果643 16.9本章小结644 16.10请你思考645 16.11深度学习美在何处646 参考资料647 后记648 索引651

深度学习之美:AI时代的数据处理与最佳实践.epub"网盘下载"

版权说明

1、本站不保存、不存储任何实质资源,以上二维码指向为网盘资源链接,其内容归对应版权方所有
2、如有侵犯版权的情况,请点击下面举报/反馈按钮反馈或发送邮件76556431@qq.com投诉说明情况
3、我们核实后将第一时间删除相关页面内容,谢谢理解和配合

这些人下载过 (12)
  • 回眸一笑很倾城
  • 远古森林深处
  • 感情越来越嚣张
  • 世界不够温柔
  • 得舍
  • 抢了我辣条还想跑
  • 流云
  • 沿街灯火
  • 八爷
  • 为你披衣
  • 月上溪溪
  • 却把我丢在某日某夜某街
最新回复 (0)

    暂无评论

请先登录后发表评论!

返回
请先登录后发表评论!