189 8069 5689

CNN中卷积核数是什么-创新互联

小编给大家分享一下CNN中卷积核数是什么,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

公司主营业务:成都网站制作、网站建设、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。创新互联建站是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。创新互联建站推出滨海新区免费做网站回馈大家。

卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。

卷积核的意义

卷积核其实在图像处理中并不是新事物,Sobel算子等一系列滤波算子,一直都在被用于边缘检测等工作中,只是以前被称为Filter。做图像处理的同学应该有印象。

卷积核具有的一个属性就是局部性。即它只关注局部特征,局部的程度取决于卷积核的大小。比如用Sobel算子进行边缘检测,本质就是比较图像邻近像素的相似性。

也可以从另外一个角度理解卷积核的意义。学过信号处理的同学应该记得,时域卷积对应频域相乘。所以原图像与卷积核的卷积,其实是对频域信息进行选择。比如,图像中的边缘和轮廓属于是高频信息,图像中某区域强度的综合考量属于低频信息。在传统图像处理里,这是指导设计卷积核的一个重要方面。

CNN中的卷积核

CNN中的卷积核跟传统的卷积核本质没有什么不同。仍然以图像为例,卷积核依次与输入不同位置的图像块做卷积,得到输出。

同时,CNN有一些它独特的地方,比如各种定义:

CNN可以看作是DNN的一种简化形式,即这里卷积核中的每一个权值就可以看成是DNN中的,且与DNN一样,会多一个参数偏置。

一个卷积核在与Input不同区域做卷积时,它的参数是固定不变的。放在DNN的框架中理解,就是对同一层Layer中的神经元而言,它们的和是相同的,只是所连接的节点在改变。因此在CNN里,这叫做共享权值偏置。

在CNN中,卷积核可能是高维的。假如输入是维的,那么一般卷积核就会选择为维,也就是与输入的Depth一致。

最重要的一点,在CNN中,卷积核的权值不需要提前设计,而是跟DNN一样利用GD来优化,我们只需要初始化。

如上面所说,其实卷积核卷积后得到的会是原图的某些特征(如边缘信息),所以在CNN中,卷积核卷积得到的Layer称作特征图。

总之,一般CNN中两层之间会含有多个卷积核,目的是学习出Input的不同特征,对应得到多个特征图。又由于卷积核中的参数是通过GD优化得到而非我们设定的,于是初始化就显得格外重要了。

以上是“CNN中卷积核数是什么”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


本文标题:CNN中卷积核数是什么-创新互联
转载来源:http://jkwzsj.com/article/dijegg.html

其他资讯