在近年来的人工智能波动中,视频监视装置的人脸识别功能、智能手机的语音识别以及谷歌的最新自动翻译都源于被称为“深度学习”的技术。 目前人工智能已经成为一个很受欢迎的话题,但实际上目前人工智能发展的许多贡献都依赖于部下深刻的学习和神经网络领域的发展成果。

实际上,深度学习是人工智能实现方法的新名称,该方法已存在70多年。 神经网络在1944年沃伦·麦克鲁格尔和沃尔特pitts (也被认为是芝加哥大学的两位研究者、认知科学的创始人)首次提出后,随着人工智能的发展而浮沉

人工智能最早兴起于1956-1974年,以命题逻辑、谓语逻辑等知识表现、启发式搜索算法为首,开展了关于国际象棋方法的研究。
20世纪80年代初又掀起了第二次热潮,主要围绕专家系统、知识工程、医疗诊断等领域。 之后,人工智能降到了将近30年的冬天。
第三次热潮是近两年兴起的深入学习推动,主要表现为面部识别、语音识别、自然语言处理等技术的成熟。
对于神经网络,到1969年为止,神经网络是神经科学和计算机科学的主要研究领域。 之后,和人工智能的冬天一起经历了寒冷的时期。 20世纪80年代神经网络的研究再次兴起,由于图形芯片的处理能力提高,大规模的提高和应用在2010年以后爆发。
神经网络的简单原理
神经网络是进行机器学习的方法,计算机通过分析训练样本来学习到执行特定的任务。 通常,这些例子是预先标记的。 例如,对象识别系统可以提供诸如成千上万的汽车、房子、咖啡杯等不同类别的标记图像,并且在图像中总是发现与特定标签相关联的视觉图案。
神经网络是模仿人脑构筑的,由数千人到数百万人的密集相互连接的简单处理节点构成。 现在的大多数神经网络组织在节点层,它们是“前馈”网络,意味着数据只能单向通过。 单个节点可以连接到其下层中的某些节点,从中接收数据,并将数据发送到其上层中的某些节点。
为每个传入连接分配一个称为权重的编号。 如果网络处于活动状态,则节点将接收每个连接的不同数据项(不同的数字),并对其乘以相关权重。
将得到的乘积相加,生成结果的数值。 如果此数字低于传输阈值,则节点不会将数据传输到下一层。 如果数量超过传输阈值,则节点为“触发器”,这意味着所有传出连接都将发送总的数字-加权输入。

在训练神经网络时,所有权的重量和阈值最初被设定为随机值。 培训数据提供给较低的输入层。 通过后续层以复杂的方式将其相乘,然后将其相加并转移到输出层。 在培训期间,系统会继续调整权重和阈值,直到具有相同标签的培训数据始终生成类似的输出。
神经网络的发展
McCullough和Pitts在1944年记述的神经网络具有阈值和权重,但是没有配置在层上,研究人员没有指定训练机构。 McCullough和Pitts表示神经网络原则上能够计算出数字计算机可执行的功能,值得注意的是人脑被认为是计算装置的概念。
康奈尔大学心理学家弗兰克·罗森布拉特于1957年展出了第一个可训练的神经网络Perceptron。 Perceptron的设计与现代神经网络的设计非常相似,只有一层能够调节重量和阈值,夹在输入和输出层之间。

现代GPU把1960年代的单层网络和1980年代的2~3层网络变成了现在的10层、15层甚至50层网络。 这也是“深度学习”中“深层”的意思——网络层的深度。
神经网络的后续展望
2010年以后神经网络的复兴-深刻的学习革命-首先来自电脑游戏行业。 由于视频游戏的复杂图像和快速硬件需求,图形处理单元( GPU )迅速发展,在一个芯片上安装了数千个相对简单的处理核心。 不久,我发现GPU体系结构与神经网络体系结构非常相似。
同时,为了更高效的研究和神经网络的利用,出现了更多的硬件方案,Intel收购了Altera,谷歌研究了TPU,业界还在寻找更高效的方法,方面也证实了神经网络的爆炸程度。
目前神经网络是计算机领域和神经科学领域的宝贵工具。 用于调整权值和阈值的特定网络布局和规则再现了人类神经解剖学和认知学观察到的特征,表明大脑获得了如何处理信息的机制。
但是,对神经网络有不满。 充分的训练能够改变神经网络的设定,对数据进行分类,但过程过于复杂,无法看到个别连接的权重来说明其原理的物体识别器所重视的图像特征是什么,它是如何与汽车相连接的,房屋和咖啡杯的独特视觉特征也不清楚这些问题
解决了这些问题后,神经网络的作用机制可以得到进一步的控制。 同时,神经网络作为神经科学和计算科学领域的工具,在人工智能的时代取得了更好的发展。