标题:要像人类一样聪明,人工智能必须首先突破计算能力

算法的限制,数据和计算能力被视为推动人工智能发展的三大因素,计算能力被描述为支持人工智能应用的“引擎”。人工智能研究机构OpenAI最近指出,“高级人工智能所需的计算能力每三个半月翻一番。”
近日,脸谱网人工智能副总裁杰罗姆·佩森蒂(Jerome Pesenti)在接受《连线》杂志采访时表示,人工智能研究成本的持续上升,或者说我们在这一领域的研究失败,现在已经到了需要考虑成本效益等的地步。我们需要知道如何从现有的计算能力中获得最大的利益。那么,为什么人工智能需要如此强大的计算能力?计算能力限制了人工智能的发展吗?我们能持续满足人工智能不断扩展的计算需求吗?2016年3月,当谷歌的人工智能阿尔法围棋(AlphaGo)击败韩国棋手李世石时,人们哀叹人工智能的力量,但对其背后的巨大“努力”知之甚少——数千台服务器、数千个中央处理器、高性能显卡以及下棋时消耗的惊人电量。王源智库人工智能部门部长、图灵机器人首席战略官谭明洲在接受《科学技术日报》记者采访时说与云计算和大数据应用相比,人工智能对计算能力的需求几乎是无穷无尽的”中国工程院院士、浪潮集团首席科学家王恩东指出据介绍,人工智能最大的挑战之一是识别率和准确率低。为了提高精度,需要提高模型的规模和精细度,增加离线训练的频率,这就需要更强的计算能力。还计算了精确度。例如,大型互联网公司或著名的人工智能初创公司有能力部署大型人工智能计算平台。该算法模型已达到数千亿个参数和训练数据集的规模。
“目前人工智能中使用的大多数深入学习框架依赖大数据进行科学研究和培训,以形成有效的模型,这需要很高的计算能力”谭明洲指出,随着人工智能算法模型的复杂性和精度不断提高,互联网和物联网产生的数据正以几何倍数增长。在数据量和算法模型叠加的情况下,人工智能对计算的要求越来越高。毫无疑问,人工智能正在向深度学习方向发展,计算能力已经成为评估人工智能研究成本的重要指标。可以说,计算能力就是生产力。
频繁的数据传输“记忆墙”问题凸显了为什么
人工智能在计算上如此昂贵?具体来说,在经典的冯·诺依曼计算机体系结构中,存储单元和计算单元是截然不同的在操作期间,需要将数据从存储单元读取到计算单元,并且在操作之后将结果写回存储单元。在大数据驱动的人工智能时代,人工智能操作中的数据处理更加频繁,需要存储和处理的数据量远远大于以前常见的应用。当计算能力达到一定水平时,由于访问存储器的速度跟不上计算组件消耗数据的速度,所以无法充分利用额外的计算组件,从而形成所谓的冯·诺伊曼“瓶颈”或“存储器墙”问题这就像一个强大的发动机,但是由于输油管道的尺寸很小,它不能产生它应该有的动力。
显然,频繁的数据传输造成的计算瓶颈已经成为探索更先进算法的限制因素。计算能力的瓶颈将对更先进、更复杂的人工智能模型的研究产生更大的影响。
王恩东曾经指出:“计算能力的提高对体系结构提出了挑战随着半导体技术逐渐接近极限,计算机发展正进入架构创新的黄金时期,而计算能力的提高将更多地通过架构创新来满足。据了解,最先进的自然语言处理模型XLNet有大约4亿个模型参数据估计,人脑细胞间相互连接的轴突数量约为1到1万亿。显然人工智能离我们在认知方面追求的所谓一般人工智能还很远。为了达到一般人工智能的水平,预计研究所所需的计算系统的计算能力和能源效率将比目前的水平提高至少几个数量级。因此,为了进一步突破人工智能,必须采用新的计算体系结构来解决存储单元和计算单元分离带来的计算瓶颈。谭明洲,
,说目前人工智能有更多无用的计算。目前,人工智能仍处于数据输入和参数调整阶段,如连续灌溉。这是一种“黑盒”模式,消耗大量的能量,特别是在图片和视频方面,但是真正有效的计算并不多,这是一种能量的浪费。未来,人工智能需要在“可解释性”方面有所突破,找出导致以下结果的原因,以便能够准确地使用数据和计算力来减少计算量。这也是目前一个重要的研究课题,将促进深入学习的发展。
计算与存储的集成或进入下一代系统
”虽然现阶段的计算能力远未限制人工智能的发展,但它确实提高了参与人工智能研究的门槛”谭铭洲指出
除了研发经费的增长,在计算能力爆发前的很长一段时间,随着互联网的发展,数据生成的场景渗透到生活和生产的每个角落。随着通信技术的进步,特别是5G的商业应用,数据生成的基本场景的覆盖面和深度达到了一个新的水平,数据的生成也将达到一个新的数量级。
2-020年初,阿里达玛研究所发布的《2020年科学技术十大趋势》报告显示,在人工智能中,计算和存储的集成类似于人的大脑,数据存储单元和计算单元的集成可以显著减少数据处理,大大提高计算并行性和能效。然而,计算和存储集成的研究不可能一夜之间完成。这份报告提出了一项战略。对于用于计算和存储的通用集成计算架构的开发,最近策略的关键在于通过芯片设计、集成和封装技术来缩短存储单元和计算单元之间的距离,增加带宽,降低数据传输成本,并缓解由数据传输引起的瓶颈。中期计划是以建筑革新为基础的。它可以通过将内存放在计算单元中或者将计算单元放在存储模块中来实现“你有我”和“我有你”的计算和存储。长期的前景是通过设备级创新,实现设备不仅是存储单元,也是计算单元。它并不相互分割,而是集成到一个真正的计算和存储集成中。近年来,一些新的非易失性存储器,例如电阻式随机存取存储器,已经显示出计算和存储收敛的一些潜力。
据说计算和存储的集成有助于算法升级,成为下一代人工智能系统的入口。内存计算提供的大规模和更高效的计算能力使人工智能算法设计具有更丰富的想象力,不再受计算能力的限制。从而将先进的硬件升级到系统和算法的领先优势,并最终加快新业务的孵化。
,除了计算和存储一体化的趋势之外,量子计算是解决人工智能所需要的巨大计算力的另一种方式。目前,量子计算机的发展已经超越了传统计算机的摩尔定律。基于传统计算机的计算能力,量子计算机的计算能力发展迅速。
的谭明洲(Tan Mingzhou)表示,除了技术本身不断升级之外,未来人工智能的突破还需要世界各国的协同创新、整合和发展,以及探索新的合作模式,如采用共享思维,调动世界各方面的计算资源,集中精力降低巨大的计算成本。
扩展阅读
人工智能计算能力显示五大发展趋势根据
互联网数据中心(IDC)和浪潮联合发布的《2019-2020中国人工智能计算能力发展评估报告》,全球新创建的数据量将从2018年的33ZB增加到2025年的175ZB随着数据的不断爆炸式增长和算法的不断进化,未来的计算能力仍有很大的空间。
该报告发布的中国人工智能计算城市最新排名显示,排名前五位的城市依次是北京、杭州、深圳、上海和广州。排名第6-10的城市是合肥、苏州、重庆、南京和Xi
报告还提出了未来人工智能计算能力发展的五个重要趋势。首先,到2022年,人工智能推理市场的比例将超过培训市场。其次,预计到2023年,中国人工智能基础设施市场的复合增长率将在未来五年达到33.8%,是中国整体基础设施市场增长率的三倍以上。第三,5G和物联网将促进边缘和末端人工智能基础设施的快速发展。第四,人工智能和云的融合将进一步加快。人工智能基础设施即服务市场规模的年复合增长率预计将在未来五年达到66%。第五,随着计算能力的提高,越来越多的企业将参与人工智能开源软件的研发和行业绩效评估基准的构建