另一头是单独一根长长的突起纤维,学名轴突。
神经元的作用便是各个树突接收到其他神经元细胞发出的电化学信号刺激,这些脉冲相互叠加之后,一旦最终的强度达到临界值,便会让这个神经元细胞启动,随后朝着轴突发送信号。
而轴突通过细胞膜内外的纳钾离子交换让膜电位发生变化,使得整个电信号不衰减地传递下去。
最终这些信号传递到其他的轴突与树突,再激发他们产生信号,成为二级神经元。
像人类的视觉系统,便是通过1亿3千万光感受细胞接受光信号,在通过120万节细胞轴突将信息从视网膜传递到大脑,形成了三维图形。
而机器学习,便是要教给计算机,怎么把它接受的输入结果和我们想要的输出结果关联起来。
诸如看到一张图片,它能够理解这便是我们需要的数字1.
而这依赖的便是感知器,这也是名为神经网络的原因。
感知器,本身便是模拟神经细胞,原先的生物学名词都有了对应的新名字
权量、偏置及激活函数。
机器无法理解一副图片,但是它可以把图片翻译为“像素点阵”,然后这些点阵以0与1输入。
林奇默默在地面上化了一个初中生熟悉的xy坐标轴,同时在上面点出了这四个左边,它们连接起来便是一个正方形,而这四个左边分别坐落在四个象限。
机器学习需要的便是让机器知晓诸如这种应该算作哪一个象限?
这便需要神经网络算法的“分类”作用。
这里输入是一个的坐标,它是一个1乘2的矩阵,这是输入层。
设定50个神经元,所以它便是一个1乘50的矩阵,这是隐藏层。
而结果1-4象限,则是一个1乘4的矩阵,这是输出层。
根据线性代数的知识,可以知道矩阵之间是能够沟通的,所以一个输出层的1乘4矩阵可以用最初的1乘2输入层矩阵表达。
这其中的操作,便在于为这个矩阵运算添加激活层以及输出正规化,再通过交叉熵损失来量化当前网络的优劣,最后再进行参数优化。
这个过程所需要的便是反复迭代。
重新走完这个过程后,林奇也不禁感慨地叹息数分。
他还记得大学的毕业论文课题,当时都是由各个导师根据自己的专业范围制定题目,然后再由学生们报名选择。
当时林奇选的慢了,最后剩下的都是若干不好啃的“算法题”。
毕竟做算法,墓地就是优化它的参数,让整个计算时间短一些,效果更精确,最终更优化些,可是每年一代又一代的学生,早已把沙漠上明显的宝石捡走了,剩下的方法也就研究生博士生的路子,自己圈一块地,继续往下深挖,想要靠着视野一眼就挑出钻石,那根本是无稽之谈。
而林奇最终思索数番,选择的是一道遗传算法做全局最优的题目,结果当时matlab早就有一整套成熟的工具包,林奇还是老老实实地自己编写函数,最终凑出一篇勉强的论文。
最终面对评审专家提问创新之处时,林奇也只能面前回答,他用的这几个参数组合,未见与前人文章,这才勉强划水过去。
而他那位选择了神经网络算法的舍友,当场被质疑模拟数据造假,差点延毕。
后来为了帮助舍友,林奇当时算是第一次接触神经网络算法。
毋庸置疑,在神经网络算法里,秘能场参数便是“输入矩阵”,法术模型结果便是“输出矩阵”。
随即,林奇在地面是书写了一段文字
神经网络。
人工神经网络。
以大量的简单计算单元构成非线性系统。
一定程度上模拟大脑的信息处理、存储和检索等功能。
BP网络的误差反向后传学习算法。
输出后误差来估计输出层的直接前导层误差,再以误差更新前一层的误差,如此反传下去获得所有其他各层的误差估计。
……
他一步一步地重新将整个神经网络的知识梳理一遍。
他相信,这也是对面那位神孽所等待的内容。
这也是两者之间的交换!
一种无须言说的默契。