笔记|李宏毅老师机器学习课程,视频19卷积神经网络

数据科学与人工智能

共 1896字,需浏览 4分钟

 · 2021-06-13

 是新朋友吗?记得先点数据科学与人工智能关注我哦~


《学习笔记》专栏·第22篇

 | MLer

1145字 | 4分钟阅读

【数据科学与人工智能】开通了机器学习,大家可以相互学习和交流。请扫描下方二维码,备注:姓名-ML,添加我为好友,诚邀你入群,一起进步

感谢李宏毅老师的分享,他的课程帮助我更好地学习、理解和应用机器学习。李老师的网站:

http://speech.ee.ntu.edu.tw/~tlkagk/index.html

这个学习笔记是根据李老师2017年秋季机器学习课程的视频和讲义做的记录和总结。因为这个视频是在Youtube上面,有些朋友可能无法观看,我把它搬运下来放在云盘上面,大家点击阅读原文,就可以直接在手机随时随地观看了。再次,感谢李老师的付出和贡献。

这门课,共有36个视频,每个视频播放的时间不一。我按着视频播放的顺序,观看,聆听和学习,并结合讲义,做学习笔记。我做学习笔记目的有三:

1 帮助自己学习和理解机器学习

2 记录机器学习的重要知识、方法、原理和思想

3 为传播机器学习做点事情

视频19:卷积神经网络

一、为什么CNN适合Image?

李老师说CNN,相对于DNN,全连接的网络,是一个更加简单的模型,它基于先验知识,去把原来全连接的layer里面的一些参数拿掉,就变成了CNN。为什么可以这样做?


洞察一:一个Pattern只需要观察一个小的区域,例如,识别鸟嘴。

洞察二:同样Pattern出现在不同区域时,可以用同一组参数来识别,即参数共享机制。

洞察三:对图像做子抽样,subsampling,不会影响图像识别。如下图:

同样Pattern出现在不同区域时,可以用同一组参数来识别,即参数共享机制。



基于这个三个洞察,CNN的整体架构,如下图:


卷积层对应于洞察一、二,而池化层对应于洞察三。

二、卷积层Convolution

李老师详细介绍了卷积层的计算和处理逻辑,以及与洞察一和二的关系,原始数据、卷积核、卷积运算、步长(stride=1)、Feature Map,卷积层与全连接的关系,这些知识,在卷积层里面会用到。更详细的内容,请观看视频。

思考题:

彩色图像如何做卷积运算?(请留言)


卷积层与全连接的关系

利用先验知识,用更少的参数来达成了学习的目的。

更少的参数,决定了更少的神经元个数和权重


三、池化层Max Pooling

池化层用于解决做洞察三的事情



四、全连接层

用于把最后输出的Feature Map拉直和拼接,构建一个DNN。



五、基于Keras实现CNN

李老师,以手写数字识别为例子,介绍了CNN架构,如何在Keras上做设计和实现。


六、CNN为什么可以学习?

李老师对CNN这个网络架构为什么能够学习做了深入浅出的解释,推荐观看视频。


同时,李老师分享了两个有趣的Deep现象,一个是Deep Dream,另一个是Deep Style。


七、CNN的广泛应用

CNN有着广泛地应用,尤其是在图像领域或者类似图像的领域。

李老师分享了这些应用实例。

1 围棋比赛,Playing Go


2 语音领域



3 文本领域




详细内容,请观看视频。


朋友们,在学习中有什么问题或者想法,请加入机器学习群,大家一起讨论,共同进步。


什么是数据挖掘?你怎么看。


每周一书

1利用Python进行数据分析

2深度学习


课程视频点击                                         

↓↓↓

浏览 40
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报