别给人工智能技术乱戴光环

  • 来源:环境与生活
  • 关键字:人工智能,导航软件
  • 发布时间:2019-02-18 18:25

  跟着信息技巧的不竭提高,“人工智能”一词被热炒,各路资金簇拥而进。然而,在让人目炫纷乱的新科技中,到底哪些是真正的人工智能?界定人工智能有什么尺度?《情况与生涯》杂志记者近日采访了中关村收集平安与信息化财产同盟副秘书长王克。

  1月5日上午,中关村收集平安与信息化财产同盟副秘书长王克接收《情况与生涯》记者采访。

  1月5日上午,在北京市海淀区的一家咖啡店里,《情况与生涯》记者见到了王克博士。记者说:“幸好有了智妙手机,借手机上的导航软件一路找过来。假如在10年前,可能要问十几小我才干找到这里。”

  王克说:“导航软件是借助卫星定位和信息传输技巧实现的一种数据集成办事,这不属于今天我们会商的人工智能范围。”

  随后他说,“实在人工智能是盘算机学科的‘古老’课题,在近几十年的成长中,盘算机在模仿人的盘算方面有了很猛进步,但在盘算机模仿人的行动方面——就是我们凡是所说的人工智能范畴,还没有获得本质性冲破。”

  所有AI技巧都未经由过程图灵测试

  “人工智能”的英文缩写为AI(Artificial Intelligence),它是研讨、开辟用于模仿和扩大人类智能的理论、方式、技巧及利用体系的一门新兴技巧科学。

  王克早年师从我国人工智能学科的开辟者、清华年夜学盘算机系传授石纯一师长教师,在清华年夜学获得博士学位。他进行机械定理证实研讨,早在1989年就颁发了《从电脑与人脑的差别看人工智能》一文。

  王克先容,人工智能来源于20世纪50年月。1950年,还在美国哈佛年夜学物理专业读年夜学四年级的本科生马文·明斯基和他的同窗埃德蒙一路,做出了世界上第一台神经收集盘算机,定名为SNARC。这台盘算机是由3000个真空管和底本用于B-24轰炸机上的主动唆使装配,来模仿人类40个神经元构成的收集。马文也是以被称为“人工智能之父”。就在统一年,后来被称为“盘算机之父”的阿兰·图灵,这位集数学家、电脑学家、逻辑学家、暗码学家等名头于一身的英国科学家,在其编写的《曼切斯特电子盘算机法式员手册》一书中,提出了有名的“图灵测试”。

  王克说:“人工智能这个词正式呈现,仍是在1956年,那时几个年青人在美国的达特茅斯学院开会,确立了人工智能的概念以及成长标的目的。”在美国新罕布什尔州汉诺威小镇达特茅斯学院召开的此次“人工智能夏日研究会”会期很长,几乎连续了一个暑假。与会者都很年青,后来都成绩卓越。马文·明斯基那时才29岁。约翰·麦卡锡是Lisp说话发现者、图灵奖得主、克劳德·喷鼻农是信息论的开创人、赫伯特·西蒙是诺贝尔经济学奖得主、艾伦·纽厄尔也是盘算机科学家……不外,那时他们还没有这些成绩,只是30岁摆布的年青人。

  在接收采访时,王克多次提到,查验人工智能的一项主要尺度就是图灵测试。所谓图灵测试,指的是在测试者与被测试者(一小我和一台机械)离隔的情形下,经由过程一些装配(如键盘)向被测试者随便提问。进行多次测试后,假如有跨越30%答复让测试者不克不及断定被测试者毕竟是人仍是机械,这台机械就经由过程了测试,并被以为具有人类智能。从上世纪中叶起,图灵测试就用作查验AI是否真正具有人工智能的尺度。

  然而,几十年来还没有任何人工智能技巧经由过程图灵测试。

  在2018年5月的谷歌I/O年夜会上,一段机械人Duplex打德律风胜利订餐的现场演示震动不雅众,也震动了浩繁经由过程收集不雅看直播的粉丝。很快,一篇篇“谷歌Duplex经由过程图灵测试”的文章刷屏,庆贺这一人工智能范畴的“里程碑”。然而,谷歌的母公司Alphabet(意为“字母表”)董事长、斯坦福年夜学前校长约翰·轩尼诗的原话“In the domain of making appointments,it passes the Turing test”意思是,“在预约范畴,Duplex经由过程了图灵测试”。题目就在这儿,图灵测试的请求是“随便提问”,谷歌Duplex的测试只是在“预约范畴”。是以,说Duplex经由过程或部门经由过程图灵测试,都是禁绝确的,性质就像语文测验明明不合格但还夸大“我作文是合格的”。

  霍金惊悚预言并不靠谱

  几年前,跟着谷歌团队开辟的阿尔法狗(AlphaGo)持续克服人类多位围棋高手,以及无人驾驶汽车适用化过程加快等,低迷了20多年的人工智能又开端升温。2017年4月,英国有名物理学家霍金警告说:“人工智能可能是人类文明史的终结……生物年夜脑可以到达的和盘算机可以到达的,没有实质差别。”

  王克以为:“威望科学家的跨行跨界点评,有时也缺少公道性。霍金是物理学家,并不是研讨人工智能的,他太高估人工智能技巧的成长情形了。”

  对人工智能此后的成长,王克说:“人工智能只能作为帮助,在做某些简略和反复性的工作方面会代替人,好比盘算才能确切比人强,但在可预感的未来,它都克服不了人,霍金的担忧是过剩的。”

  王克以阿尔法狗击败人类围棋高手为例说,“这并不稀奇,早在二三十年前盘算机刚开端普实时,我们就有了象棋软件,一般人都下不外,可那时没人把这叫人工智能,更没人给这象棋软件投进巨资,由于完整是娱乐罢了。”

  王克先容,人工智能还有一个主要利用就是专家体系,它利用人工智能技巧和盘算机技巧,依据某范畴一个或多个专家供给的常识和经验,进行推理和判定,模仿人类专家的决议计划进程,来解决那些须要人类专家处置的庞杂题目。“如IBM推出的‘沃森’(Watson)诊疗专家体系,那时传播鼓吹从海量医学文献和病历中提取临床诊断经验,让盘算机替换人类大夫诊断良多疑难杂症,例如肿瘤,但因为几起病例掉败逝世了人,这个项目就严重受挫。”

  假如清扫机械人碰到年夜便

  尽管人工智能技巧到此刻还没能经由过程图灵测试,即到达人类智能的水平,但这并不妨害人工智能技巧及产物的开辟和利用。王克先容,今朝人工智能技巧重要利用在“指纹辨认、人脸辨认、机械视觉、智能搜刮、主动化法式设计”等范畴。在这些范畴,智能技巧简直做得比人类自身强,但这得益于人类给机械输进的算法法式以及运算平台自己的提高,就像传统的算盘被更高效的盘算机代替一样。

  谈到人工智能,人们起首想到的是机械人,好莱坞年夜片中也频仍呈现机械人克服人类把持地球的桥段。王克说:“机械人从利用范畴来说,一般分为产业机械人和办事机械人。产业机械人如机械臂,可承担一些应用人力本钱较高或很危险的义务,如处置危险放弃物,美军也在开辟机械人排爆等。办事机械人则见得比拟多,我就见过在一个饭馆里,办事机械人重复走到年夜堂司理前说‘接待惠临’等,由于这个办事机械人还分不清年夜堂司理和来吃饭的顾客。在养老院中,机械人也可以用来扫地板或端送个什么工具,但假如地上忽然呈现预定法式之外的工作,好比地上有年夜便,机械人多半仍是会依照预定法式而把年夜便扫得满地都是。”

  当进步进年夜数据时期,借助技巧集成处置之便,良多传统技巧也都有了“人工智能”的光环。对此,王克以为,“人工智能可以用年夜数据来练习,让它慢慢学会处置更庞杂的情形。”

  当前AI技巧与人脑差距太年夜

  对人工智能的成长近况,王克评价说:“今朝人工智能还只是人类给机械输进固定的法式由其遵照,按一名美国粹者所说的,就是‘代码即法令’(Code is law),意思是说,在人工智能范畴,你给机械输进的代码,就像人类世界的法令一样获得严厉遵照。”

  针对前段被热炒的无人驾驶汽车,王克以为:“就此刻的途径交通状态来说,无人驾驶汽车永远上不了路,也不敢让它上路。在固定的区域(好比仓库、公园、小区、船埠)特定路线上或许有点用,但估量短时代内助员保护和装备本钱比买辆车雇个司机要高得多。此外,法令题目也是一个障碍。假如无人驾驶汽车撞了人,谁来负义务?在这些障碍不解决的情形下,谁都不敢批准其上路。”

  机械翻译也属于人工智能技巧,王克说,机械翻译只能供给参考感化,在主要场所还远不克不及代替同声传译的人。

  说起人工智能与人脑最年夜的差距,王克以为,人类智能里最基础的几个功效,如联想、顿悟、回纳、推理等,人工智能此刻都做不到。“好比我看到一幅下雪天的画,会想到温度很低、雪景很美等,而人工智能好比以图搜图只会找到一堆下雪天的画,由于它不具备联想功效。”

  王克以为,今朝的人工智能技巧还远未实现冲破,只是得益于年夜数据时期的到来。他说,当前我国有的人工智能技巧是蹭热门、炒概念,意在圈钱,还有的逗留在试验室里,是否有普及价值还欠好说。

  王克以为,把这些试验室里的工具当作中国甚至人类的将来是很幼稚的,先容这些科学试验对国人的科普教导,特殊是进步青少年对科学研讨的爱好很有意义。但假如将其拿来证实中国科技实力何等强,“那如许的宣扬真没需要,反倒显露出我们对科学研讨熟悉的浮浅”。

  可用于相对封锁的情况

  《情况与生涯》记者问及人工智能技巧在环保范畴中的利用,王克说:“此前有报道说人工智能进进环保范畴,如环卫聪明功课机械人和无人驾驶小型扫路车,但我感到今朝只是在相对封锁的情况中可以应用,履行的都是简略而反复的操纵,它们难以应对突发情形,并且其应用和保护本钱可能比人工高得多。”

  当前,在情况监测中有诸多传感器,被利用在年夜气主动监测和水质主动监测中,王克说:“这种传感器严厉来说,并不属于人工智能范围,它更多是依照人设定的法式往做水质和年夜气成分的数据主动采集并实时上传到平台,终极成果仍是要由人来做剖析判定并决议计划。”

  不外,王克以为,当前国度器重情况维护,假如在这个范畴的人工智能技巧充足成长,一定会助推我国生态情况扶植良性成长。

  本刊记者 季江云 郑挺颖

关注读览天下微信, 100万篇深度好文, 等你来看……