发展人工智能的良好契机
- 来源:计算机世界 smarty:if $article.tag?>
- 关键字:人工智能,契机,大数据 smarty:/if?>
- 发布时间:2015-08-31 12:42
大数据提供充足养料
人类不是刚一出生就拥有了完备的智商,需要后天不断学习和训练。人工智能也是如此,人工智能也需要在持续的学习与训练中来提升智能水平。那么人工智能学习的对象是什么?——数据。人工智能领域一个比较重要的研究方向是依赖统计学、博弈论等数学方法,通过使用一些统计模型来处理图像、文本和语音等各种数据,进行概率推算。这些模型在处理数据的过程中,本身也在不断优化。而庞大的数据资源是这些方法能有效实行的基石,否则人工智能就成了无源之水、无本之木。
大型数据库、网页Cookie、全球网民的搜索行为乃至整个网络数字世界都可以成为人工智能的学习对象。随着物联网的不断普及,各种传感器渗透到人类生活、工作的方方面面,人类的线下生活也将转化为数据,这将为人工智能提供更多学习对象。关于数据与人工智能的关系,人工智能顶级科学家吴恩达曾做过一个很形象的比喻,他把人工智能比作一枚火箭,有效的深度学习算法是火箭引擎,而数据就是火箭的燃料。火箭要想飞得高、飞得远,不仅需要强大的引擎,还需要充足的燃料。
就人工智能目前的发展来看,它取得的一些成绩也多是在大量学习相关领域数据的基础上获得的。就拿1997年IBM“深蓝”电脑与国际象棋大师卡斯帕罗夫之间那场轰动世界的“人机大赛”来讲,“深蓝”并不是在毫无准备的情况下,完全凭“即兴思考”来赢得比赛的。“深蓝”此前已经“学习”了一百多年来优秀棋手对战两百多万局棋的相关资料,可谓做了大量功课。“冰冻三尺非一日之寒”这句古话用在人工智能身上同样适用。
硬件领域的突破
人工智能水平的提升不仅需要理论研究的进步,还需要硬件基础作支撑。上世纪80年代,人工智能在神经网络等理论研究方面已经取得了很大成就,但苦于能将“想法”转化为“实践”的硬件基础还不成熟。如果要用计算机来模仿人脑的大型神经网络,这就需要大规模的计算机集群。在上世纪,无论从计算机的数量还是性能上来说,很难满足这一要求。
微处理器性能的大幅提升与价格的大幅下降,是近年来硬件领域的重要突破之一。现在最新一代微处理器的性能是1971年第一代单片机的400万倍。上世纪90年代,图形处理单元(Graphics Processing Unit —GPU)作为一种新型芯片发展迅速,它能对视觉元素进行并行处理,极大提高了运算效率,促进了机器无人监督学习技术的发展。2005年以后,随着GPU产量不断提高,价格不断下降,业界已经开始利用GPU芯片来并行运行“神经网络”。
此外,未来碳纳米晶体管在推动微处理器性能提升方面潜力巨大。众所周知,几十年来微处理器的性能提升一直遵循摩尔定律,呈指数级增长的态势。然而近几年,计算机工程师们在继续缩减硅晶体管的尺寸方面遇到的困难越来越大,硅晶体管需要达到5纳米级才能满足电脑芯片不断小型化的需求。硅晶体管的尺寸几年后很可能就会达到极限,为了继续维持微处理器,继续遵循摩尔定律呈指数级发展,就需要寻找新的制造计算机芯片的材料。研究人员已经开始研发碳纳米晶体管阵列,芯片要比硅芯片尺寸更小、性能也可以一争高低。碳纳米晶体管阵列所利用的碳纳米晶体管是由碳原子排列而成的微小圆柱体,比现在的硅晶体管小100倍。
云计算的发展
云计算技术的日益普及和成熟也是推动人工智能发展的一大关键因素。尽管服务器等硬件设备在性能上大大提升,成本下降,但是要实现人工智能所要求的强大运算和存储能力,需要很多硬件设备。如果只通过在本地搭建服务器来完成的话,不仅投资巨大、占用很大的物理空间,在耗电和散热等方面也面临很大考验。云计算通过大规模、分布式的并行计算,可以整合位于不同空间的计算资源,为获取强大运算能力提供了一种方便、廉价的途径,很好地解决了这一问题。
2014年年初,微软就启动了“牛津项目”(Project Oxford),该项目就是基于微软Azure云,为各方公司提供智能化数据处理的能力。目前声音、视频、图片等各种非结构化数据越来越多,大多数公司都缺乏处理这些数据的能力。微软将开放的API放在微软Azure云里,这些API可以告诉这些公司数据里都有哪些内容,比如图片的颜色、尺寸等,甚至还可以进一步分析,告诉你这些内容是否健康,是否适合小孩观看,这对一些公司做内容控制会有很大帮助。前阵子比较火的网站“How-Old.net”可以评估照片中人物的年龄,目前该网站已经上传了6亿张照片。作为一个几天时间就做起来的网站,“How-Old.net”之所以在计算机视觉上能力这么强,就是利用了牛津项目所提供的API。
深度学习技术的发展
机器学习是指计算机系统无需遵照显式的程序指令而只是通过暴露在数据中来提升自身性能的能力。其关键之处在于,机器学习是从数据中自动发现模式,模式一旦被发现便可用于做预测。机器学习可以说是当前人工智能最重要的发展路径。机器学习为人工智能研究提供了一种新思路,即人类不需要一下子就开发出足够智慧的人工智能,可以先开发出具备自主学习能力的人工智能,然后让它通过“后天”学习去不断成长,自我改良,直至足够智慧。
英国数学家阿兰·图灵早在1950年就提出,“与其编写一个模拟成人思维的程序,为何不编写一个模拟儿童习得新知识的程序呢?如果这个儿童习得程序是可模拟的,它终究会通过有效学习,演变成一个与成人大脑智能水平一致的思维程序”。
机器学习也分有监督学习、半监督学习和无监督学习三种。有监督学习需要人类帮助机器去学习,比如对数据做标记。有监督学习是一种效率有限的机器学习方式,它需要人类干预,这本身就耗费人力,降低效率。在万物互联的大趋势下,面对越来越多的大数据,再靠人工去进行数据标记,太过耗时耗力,而且很多数据也是无法标记的。相比之下,无监督学习可以说是种很有效率的学习方式,它不需要人力介入,面对数据海洋,机器可以“自学”,很省心。
深度学习是当下机器学习领域最受关注的一个领域。2013年4月,《麻省理工学院技术评论》杂志将深度学习列为2013年十大突破性技术之首。深度学习这个概念提出于2006年,近年来取得了重大突破,但其本身并不算是一种新技术。从上世纪80年代开始,一些专家就一直在从事相关探索和研究。10年前微软就利用类似技术在平板电脑上为用户提供手写识别功能。
深度学习更接近人脑的学习方式,可以对未经标记的数据开展学习,其最大特点就是分层级,这也是它被称作“深度”的重要原因。深度学习通过模仿人类大脑行为的神经网络,利用更多层次的网络模型结构来收集事物的外形、声音等信息(一般可以达到5~10层),然后进行感知理解并产生相应行为。深度学习对人工智能的发展意义重大。用吴恩达的话来形容,深度学习实现了人工智能的正循环。需要注意的是,深度学习只是“更接近”人脑的学习方式,总体而言,它还处于对人脑简单模拟的阶段,并不能把深度学习完全等同于人脑,毕竟人类对人脑的了解程度要远远低于对计算机的了解程度。华为诺亚方舟实验室主任李航在肯定深度学习给人工智能发展带来很大机会的同时,强调也不要对深度学习期望过高,因为仅靠深度学习不太可能实现和人类一样的智能。
2014年,谷歌花4亿美元收购了Deepmind公司,该公司在深度学习领域建树颇丰。DeepMind的研究人员曾开发了一种软件。该软件在玩雅达利的一些游戏时,不必获得任何游戏规则的信息。工作人员只需为该软件提供控制器、显示器、游戏得分和任务指令——尽可能在游戏中得高分。该软件在玩太空入侵者、乒乓球等游戏时,刚开始表现得很“外行”,但通过不断试错、不断自学,最后成了游戏高手,比人类玩得还好。当然,深度学习技术不是只能用来玩游戏,它已经被应用于帮助计算机更好地识别语音、文字和形状,改善搜索引擎搜索效果等很多领域。
物联网延伸“人工智能”感知范围
人类不仅只拥有一颗“大脑”,他还有身体去感知这个世界。与此类似,人工智能也需要用自己的身体去感知世界。什么是人工智能的身体?答案是物联网。当前智慧城市在世界范围内快速发展,而物联网则是智慧城市的重要基础设施。遍布城市各个角落的声、光、压力、温度等传感器充当了人工智能的眼、耳、鼻等身体器官,让世界在人工智能面前变得“具体可感”。华为预测,到2025年,全球连接的终端将达到1000亿台,其中90%以上都是各种智能的传感器。如前所述,有了物联网源源不断所提供的数据,利用深度学习等技术,人工智能会变得越来越聪明。
科技公司积极参与
谷歌、IBM、微软、Facebook和百度等全球各大科技公司的高度重视与积极参与,为人工智能提供了一片发展的沃土。
(1)谷歌
谷歌着力发展的人工智能项目“谷歌大脑”已经在其众多业务领域得到了广泛应用,比如Google街景地图、“Google+” 的图像搜索和Android 系统的语音识别。之前,谷歌需要派人实地检查街景中建筑物上出现的数字,以判断这是电话号码、涂鸦还是真实地址。现在利用图像识别这一人工智能技术,谷歌可以在一小时之内识别出法国街景地图上的所有地址,大大节省了人力成本和时间成本。据谷歌工程师介绍,“谷歌大脑”的这些应用只是开始,未来“谷歌大脑”能够大幅优化搜索算法,极大地改进了公司的翻译服务。
除了利用自身积累发展人工智能外,近年来,谷歌已经斥资数十亿美元连续收购近10家人工智能领域的公司,其中包括DeepMind、Flutter、Nest和Boston Dynamics,这四家公司的业务重点分别是深度学习、手势识别、智能家居和机器人。谷歌通过这些收购不仅获得了技术,更获得了一大批顶尖人才。
(2)IBM
在人工智能领域,IBM推出了超级计算机“沃森”和模拟人类大脑的芯片——TrueNorth。
IBM推出的大数据服务——“沃森分析”,实现了人工智能在大数据分析领域的应用。“沃森分析”模仿人类的信息处理方式,它不仅理解自然语言,凭借自己的逻辑推理程序,还能基于证据产生各种假设,并且持续不断地学习。除了GPU外,近年来模仿人脑运作机理的新型芯片也发展迅速,为人工智能提供了硬件支撑。2014年,IBM发布了一款能模拟人类大脑的芯片——TrueNorth,该芯片能够模仿人脑的运作模式,并擅长模式识别。不用于传统冯·诺依曼结构的芯片,TrueNorth的内存、CPU和通信部件完全集成在一起,实现在本地处理信息。由于本地处理的数据量不大,就避免了传统计算机内存与CPU之间的瓶颈问题。TrueNorth拥有100万个“神经元”内核、2.56亿个“突触”内核,以及4096个“神经突触”内核,功率仅有70毫瓦,已达到量产要求。
(3)微软
除了前面提到的Skype Translator,微软还推出了人工智能姊妹产品“微软小娜”(Cortana)和“微软小冰”。微软小娜定位于个人智能助理,它可以通过学习用户手机中的文本文件、电子邮件、图片、视频等数据,来理解用户的语义和语境,了解用户的喜好、行为和习惯,为用户安排日程或回答问题。微软小冰主要定位于虚拟伴侣,可以理解为一款聊天机器人。微软小冰通过学习网络上的网民语言,以及在和用户实际沟通中“不断领悟”,在语料积累上日益丰富,可以和人类进行比较有趣的交流。微软小冰不仅能基于用户说的话进行互动,还可以利用图像识别技术,就用户发来的图片与用户“看图对话”。例如,当微软小冰看到微软办公楼的照片后,它会说“在顶层办公什么样的体验”。微软在Windows 10系统“开始”按钮的右侧加入“微软小娜”和“微软小冰”的对话框,这充分显示出微软对人工智能业务的重视。
(4)Facebook
Facebook已经成立了人工智能实验室,负责人是深度学习大师、纽约大学数据科学中心创始人Yann Lecun。该实验室主要研究内容包括视频内容分析、智能回答问题、图像识别、自动生成图片样本等等。Facebook人工智能实验室正在开发一种人物识别技术,该技术在看不到人脸的情况下,也能通过分析发型、衣服、姿态和体貌特征来识别人。
(5)百度
百度对人工智能的发展极为重视。百度研究院下设硅谷人工智能实验室、北京深度学习实验室和北京大数据实验室等三大前沿实验室,其中包括语音识别与图像识别两大重要部门。百度人工智能技术的负责人为深度学习顶级科学家吴恩达。基于深度学习技术的不断完善,百度在图像识别、语音识别上的准确度不断增强,已经广泛应用于百度移动搜索、百度图片搜索和百度广告系统等诸多业务上。
