【概要】:人工智能是一个老的新话题。之所以现在人工智能的话题又火起来,是因为两个事情,谷歌研发的阿尔法Go和世界两位顶尖棋手的对弈。
人工智能是一个老的新话题。之所以现在人工智能的话题又火起来,是因为两个事情,谷歌研发的阿尔法Go和世界两位顶尖棋手的对弈。第一件事是与韩国棋手李世的对弈,李世石成为唯一战胜阿尔法Go的棋手。半年后,世界排名第一的柯洁说李世石不行,我来下。结果是0:3,柯洁痛哭流涕。所以这两件事对人工智能的推动非常重要。
我们很多人认为阿尔法狗代表人工智能取代人脑的重要证据。这个事情没有这么悲观,最开始阿尔法狗是希望在没有人类干预的情况下战胜人类棋手。但其实在两场棋局中还是有人干预。还有一件事是,IBM的人工智能计算机做了一场知识竞赛。上个月我去了一趟IBM看了一下这个计算机,它的智力远远高于阿尔法狗。
一个是人工智能的初创企业在大大增加,第二个是人工智能企业的融资额达到了50亿美元。我们集成电路除了并购之外,要想在初创企业融资增速非常快。所以可以看到风险投资很活跃,说明这个行业是在上升期。
人工智能最重要的是预测未来
尽管如此,人工智能是老的新话题。因为上个世纪50年代人工智能就开始提出了。主要是为了让机器展示智能模仿认知功能,如感知、推理、学习、及问题解决。1980年出现了机器学习,这是实现人工智能的主要途径,主要是学习并开展数据驱动的经验预测。2010年出现了深度学习,这是机器学习的一个分支,他是要模仿人脑通过人工神经网络获得高阶学习机会。
传统的数据挖掘主要是描述发生了什么,比如问一个问题,哪个产品在过去一年最赚钱,这个是最容易统计的。还有一个机器学习是预测,通过外推数据以预测行为和事件,是通过概率来分析。比如某个客户在未来一年中最可能买哪个产品?而到了最后的一个环节就是决策,主要是领先的数据被互联网公司应用。比如为了最大化下一年的销售,产品的最佳售价是多少?
通过这三个清晰的问题可以看到三者之间的差距。所以人工智能最重要的是要预测未来,所以我们在对人工智能的理解要有正确的认识。
人工智能的基础和根本是芯片
目前非常多的初创企业进入人工智能领域,机器学习的创业空间正在拥挤起来。
工欲善其事必先利其器,人工智能的根本是智能芯片。离开芯片你没办法找到第二种人工智能的实现方法,未来的至少10年内你找不到可替代芯片的方法。如果你能找到,那我恭喜你。
从计算能力看,目前主要的人工智能芯片是GPU。GPU的计算能力比CPU大概提高了5倍,存储能力是2倍到4倍。目前Intel占了71%的市场,Nvidia占了16%。Nvidia在分立式GPU上占据主要优势。而人工智能主要应用于分立式GPU。但是目前任何一种方案无法用于本地移动终端,因为功耗太大。
还有一种芯片方案是通过FPGA,与纯CPU/SW相比性能提高5~10倍,功耗下降到了GPU环境的20%。
另一种是Google提出的TPU概念,与GPU相比,用较低的精度提高性能,功耗下降到GPU环境的10%。
还有一个是NeuRAM,我个人认为这个学习方式很可能是未来的发展方向。还有一个是Micron,用的是MISD的并行架构,DRAM的工艺,这个开始有点意思。
类人脑芯片才是最终方向?
我更愿意介绍是IBM的TrueNorth。这样一颗芯片,我在IBM访问的时候有很大的震撼。这个完全仿照大脑的做法,能力相当高,功耗只有65毫瓦,它的学习能力极强。
下一步IBM的最终目标是希望建立一个完全仿照大脑的类闹计算机。如果这能实现,成本不高,这有可能真正实现所谓人形机器人。今后对我们进入老龄化的时代影响是非常大的。这个方面会实现最大的计算量。
谈到智能芯片,什么是智能芯片呢?是不是IBM的这个就是智能芯片?首先我们要看如何来理解智能或者智慧?智慧是人特有的一项东西,它包括思考和解决问题的能力。
人类的智能整个环节包括感知、传输、存储、处理、决策、传输、执行。决策这个环节又分为分休、计算、判断、经验知识。前后两端从感知、传输到后端的传输、执行都不是智慧。而中间的才算是智慧。
首先我们看人类大脑,140亿个神经元。IBM要做的类脑芯片大概100多亿个神经元,我们看到两者之间有很接近的地方。工作频率两百赫兹,也不高。最奇怪的是,我们吃点什么米饭、豆腐、白菜,20瓦的功耗也可以完成这些功能。我们的大脑皮层面积是0.25平方米,这是自然进化而来的。
我们得过世界第一的天河计算机,用了27亿个芯片,比人脑还要小一点。传输速度是每秒中30万公里,它的频率是4.2GHz,由于可以把很多运算堆在一起,可以做很多的运算,但是功耗、占地面积都非常惊人。所以这两个对比,人脑和机器之间,要真正用机器实现人脑功能恐怕不容易。
我们猜想人脑怎么工作的呢?出现一个事件怎么办?首先要想象特征,我们怎么认出一个人?他的特征牢牢的出现在我的脑海中。我出现了记忆,做出决策,然后做出行动。这个过程是一个循环往复的过程。
当然,有可能我们见到的是一个陌生人,我记忆中不存在,我现需要做一个决策。然后把行动验证我的记忆是否是对的。所以在不断的往复过程中,我们在不断的学习加深印象。这个过程中也许我见一个人,几分钟就有印象。所以学习中会有长久的迭代过程。所以计算是非常重要的。
什么芯片才算人工智能芯片?
人工智能芯片的几个要素:
首先一定要可编程,这样才能适应算法的演进和应用的多样性。
架构的动态可变性,没有一个芯片可以百分之百石英所有的算法。
要有架构的变化能力,最好小于10个时钟周期,最好小于1个时钟周期。
高计算效率,指令这样的低效率架构就不要做了。
最重要的是,高能量的效率,我觉得理想情况下,每瓦功耗低于5万亿次。如果做不到这一点,真正做起来就会很难受。
有些应用功耗要小于1mw,有些东西要求速度足够快,比如视频识别,一些监控识别要做到每秒钟大于25帧。
最后是低成本,你要做消费类产品价格不能搞。
体积小,也是为了能在移动设备上。
应用开发要简便,不要让做应用开发的工程师学习芯片设计知识。
我们首先不知道人脑是怎么完成计算的,我们现在是用软件+芯片构成的类脑软件。包括智能软件和智能芯片。以前我们做芯片跟软件关系不大,但现在的一个方向是通过软件来定义芯片。
大家说了,FPGA不行吗?我们把FPGA的10大缺陷,1,细粒度,必须实现比特级的运算,第二配置信息量大,配置时间需要十几毫秒到即使毫秒。另外是静态编程以及逻辑不可复用。面积效率低。能量效率也很低,大量逻辑利用率低,需要特种工艺。FPGA需要最先进的制造工艺。另外应用者必须具备电路设计经验。最后是成本高昂,所以FPGA价格在及时到几万美元一片。
所以目前的标准来看,目前CPU+GPU、CPU+FPGA、CPU+ASIC的芯片结构都不是最好的人工智能芯片方法。我们认为FPGA的人工智能目前最主要的客户现阶段应该是互联网企业,而互联网企业基本上没有什么量。你要用ASIC还是FPGA你一定要通过电路设计这条关。所以这个过程中大量的降低了大家的应用门槛。
软件定义芯片成方向,AI芯片要让手机能用
那么到底该怎么做?这里是一个硬件和软件的拓扑架构,这个时候从计算的效率最好。功耗不见得最好。软件的规模可以仁义达,但硬件规模总是有限的。我们只好将硬件分块,不断将软件一块块进来运行。这就要求解决不同的问题,要求计算硬件架构和功能动态的、实时地跟随软件的变化而变化。最好能在一个时钟周期,最多不超过10个时钟周期改变。
数据会根据控制单元的要求来配置计算单元,这样的结构是通过C语言来实现计算,跟传统的计算机语言是一样的,但是编译器有很大的不同。
这是非常经典的冯诺依曼的计算结构。我们把Memory放进去,把I/O分开,我们到现在为止没有改变任何冯诺依曼体系的结构。
所以如果把可重构计算与经典计算进行比较,经典结构是刚性的,而可重构计算是函数化的柔性的。在性能上偏重于ASIC,灵活性上偏重于处理器。两者兼而有之。
我们利用这样的结构实现了可重构的神经网络计算。Thinker这是去年在深圳高交会上发布的。可能再过半个月会有一些新的消息出现。利用这个结构,来相应不同应用的神经架构网络。这样一个结构是什么样的?我们的芯片用了TSMC 65nm的LP工艺,很小的Memory,很低的工作频率,峰值性能做到409个GOPS。所以这样一个小小的东西实现的性能如此之高,如果跟其它相比,可以发现能量效率至少高了5倍。
我们认为目前的人工智能芯片还不能进入手机,如果让芯片进入手机,才真正能获得新生。如果只给互联网企业用,一定没有量。所以不解决进入手机、家庭,人工智能芯片没有希望。所以要解决功耗、成本问题。
国内的人工智能芯片和国外到底有多大差距?
最后总结,芯片是软件性能载体,一定要满足软件不断变化的计算需求。有人问我,目前国内的人工智能芯片跟国际上有多大差距? 我的回答是:应用上跟国际同行一个水平线。方法上落后。芯片上差半步。
但这个差半步并不意味着快成功了,中国有句古话叫“行百里而半九十”。也就是最后这10%要花费的精力可能要花费一半甚至以上的精力。可能就差这10%,我们就永远无法实现。所以我们应用关注芯片的基础技术,我们在芯片的能力上还有差距。如果克服不了这个差距,不要想超越人家。
来源: 国际电子商情
1、本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;
2、本站属于非营利性网站,如涉及版权和名誉问题,请及时与本站联系,我们将及时做相应处理;
3、欢迎各位网友光临阅览,文明上网,依法守规,IP可查。
作者 相关信息
图片新闻