在另一个世界,曾经在标准图像标注集Image上,取得过举世瞩目的成就。
一般的全连接神经网络,是把输入数据看做一维的数组。
处理图形、图像时,一行、一行地读取像素点,然后拼接成一串数据。
这样一来,就忽略了行与行之间的二维关系。
而则是通过“卷积核”对图片进行滤波,从而提取图片的特征。
所谓卷积核,就是一个N行N列的数字矩阵。
卷积的过程,其实就是一个压缩图片的过程。
而“卷积核”的本质,就是一个二维的滤波器。
这样的做法,很好地保留了邻近像素之间的关联情况,所以在大型图像处理方面,往往会有非常出色的表现。
和其他神经网络相比,需要的参数比较少,使用起来更加迅速、有效。
在训练时,采用的是和BP网络相似的“反向传播”技巧。
一个经典的网络,通常包括输入层、卷积层、池化层、全连接层、输出层或者径向基层。
其中涉及到一些概念,比如“池化”、“局部感受野”、“共享权值”……
江寒原本对这些东西,只有个大概的了解,理解得并不算特别透彻。
这样一来,在研究的时候,很多东西都要现场推导。
因此这篇论文是他写得最费劲的一篇,足足花了一个多星期,才打通了全部障碍,形成了初步的腹稿。
传统的图像处理算法,一般都要进行预处理,比如F,如果不对图像进行压缩,那么计算量将会非常巨大,甚至根本无法实施。
但对于来说,预处理并不是必要的,很多时候,甚至可以直接用原始图像,作为输入数据。
所以,的实用价值也是非常显著的。
江寒所知道的,就有手写识别、语音识别、物体检测、人脸识别等许多应用方向。
“当年”震惊世界的围棋AI程序,阿法狗,其核心中也包含了卷积网络。
可以说,有了卷积神经网络,计算机视觉这个领域,才迎来了革命性的进步……
江寒花了好几天时间,终于将这篇论文写了出来。
反复校对,感觉没什么问题之后,就投给了一区期刊ICML(IionalferenaeLearning)。
这时,距离新年只剩下三天。
就在这样的忙碌中,时间走到了2012年最后一天。
12月31日晚上。
江寒临睡前,忽然发现信息栏里跳出了一行红字提示。
【学术点已偿清,系统UI重启中……】
【重启成功……】
【震惊商城重新激活,虚拟空间已开放……】
【界面重组中……重组成功】
江寒打开系统UI面板。
【学术点:1,24】。
可用的学术点终于不再是个负数了。
江寒欣喜不已。
然而,就在这时……
【警告:宿主剩余寿命已不足十年!】
【注意:这不是显示BUG,这不是BUG,这不是!】