人工智能爆发之前 必须先要知道如何关掉它
- 来源:互联网周刊 smarty:if $article.tag?>
- 关键字:人工智能 smarty:/if?>
- 发布时间:2016-03-28 15:00
弱人工智能,即使是不够强的人工智能也需要被精确地控制
在今年情人节那天,Google总部所在地山景城,Google无人车打破了无人车“零责任”的记录,撞上了一辆公交车。当时无人车在一条比较宽的车道上行驶,发现车道前方有沙袋,所以它试图驶进左侧车道,此时左侧车道后方有一辆公车正在驶来,公车并没有减速让无人车并线进来,所以三秒钟后,这辆处在自动驾驶状态的无人车撞上了巴士的侧面。
无人车被扣分了,在人们心中,它的安全性也被扣分了。由此事件,引发了很多人对于弱人工智能安全性的思考。如今的人工智能都是人类对“智能”的模拟,这些程序不会自己思考,设计者也没打算让它思考,实际上设计者也不知道怎样才能让它思考。它能做的事情就是按照设计者的安排,一步一步完成既定程序。它们没有自己的思想,没有与人类相同的价值观,没有道德观。因此,如果遭遇复杂的情况或者系统失灵,就无法做出对人类来说正确的、合理的判断。就像Google无人车,它并不能理解为什么公车司机会这么“任性”。
又回到车的问题,现在一些车装上了智能防撞AI,能够在快撞到障碍物(车、树或者人)时,接管刹车系统,从而自动避免追尾和撞人。但车祸原因总是千奇百怪,如果正在开车,前面有一辆失控的大卡车横扫过来,必须迅速转入和公路相交的小路避祸,但小路上停着一辆车,只有撞上去才能幸免,可是这时,防撞AI被激活,为了避免和小路上的轿车相撞,它接管了刹车系统,关掉也已经来不及了,一个急刹,通往逃生之路的大门被彻底关上了
虽然现在的人工智能所做的都是人类所可以预期的,也就说是可控的,但遭遇复杂事件时,由于弱人工智能还不够智能,就需要人类能够及时介入,在发生危险前关掉人工智能系统。当然,对于弱人工智能,我们现在还是有关掉的能力的,但就像霍金、马斯克都让我们警惕未来人工智能,当真正的人工智能——强人工智能来到时,人类还能够控制吗?
强人工智能,当超级智能觉醒的时候就已经不受人类控制了
在Nick Bostrom的《超级智能》一书中,暂时将超级智能定义为:在几乎所有领域远远超过人类的认知能力。超级智能是人工智能的下一站,且一定会随着人工智能的觉醒,在很短的时间内超过人类,成为超级智能。而当超级智能真的形成的时候,我们可能并不知道
“在某个时间点,一个不友好的人工智能会聪明地意识到:掩藏自身的一部分能力提升会产生更好的结果。为了防止在自身变得强大到能够获得决定性战略优势之前引起人类的警惕,人工智能可能会故意说慢其进展,或者故意在较难的测试中不及格。开发人员可以通过秘密监视人工智能的源代码和其大脑的内部活动,来试图防止上述情况的发生。但是足够聪明的人工智能可能意识到它自己可能会被监视,从而相应地调整策略。人工智能可能会找到微妙的方式,来掩饰其真实的能力和恶意意图。”(摘自《超级智能》)。
这就是不太乐观的发展方向,超级智能觉醒之时,可能会在提高实力的同时,降低扩散率,当有一天实力达到一定程度,人类根本来不及反应。我们要的不仅仅是以娴熟的技术引燃智能爆炸,我们还要能在更高水平上掌握控制权,以免我们在爆炸中身首异处。有人会说,我们可以制造友好的超级智能。
友好的人工智能是怎样的呢?这要从技术压制和价值观加载两方面来说。从技术条件上来说,如果人类真的能够在人工智能爆发前掌握控制手段,实现可控的智能引爆,那人工智能就能够真正地为人所用(可是,如果将人工智能看成是升级版的人类,很难想象在技术竞赛上人类能够超过超级智能)。从价值观加载来说,人类是否能通过编写代码给人工智能输入人类价值观,也许我们一开始就可以将追求利他、同情、友爱或其他我们认为应该出现在人类身上的高尚品德的终极价值观加载给人工智能。
但人类的价值观是如何形成的呢?我们的价值观取决于我们的人生经历,价值观体系的大部分信息内容是从经历中获得的。由此启发,也许我们可以给“种子”人工智能以自由以目标,在它发展和进化的过程中将负面事件最小化、正面事件最大化,从而让人工智能朝着我们希望的方向发展,成为超级智能后拥有友好的“性格”。
但是,如今人类对于自身的诸如价值观、感情、道德、意义的形成机制还没明白到可以将其清晰地加载给人工智能的程度,其中出现的小偏差就会造成日后很严重的后果。如果在爆发之前告诉某个项目人工智能就是让人类快乐,而我们给它快乐的定义就是微笑或者大笑,在智能程度较弱的时候,人工智能可能会给我们讲笑话、播喜剧,但随着人工智能的进化和发展,它们会拥有更多的技术和策略,为了通过更有效的方式让人类“快乐”,它也许会在我们的大脑中负责快乐的中枢部位植入电极,让我们永远保持微笑
当然,以上都只是众多可能的沧海一粟。但很显然,我们还没有准备好应对人工智能的爆发。
准备好了再出发,手拿炸弹的孩子
“对于一个手拿尚未引爆的炸弹的孩子来说,明智的做法是轻轻地将炸弹放下,快速跑出屋子,并告诉距离最近的大人。然而,我们现在面对的不是一个孩子,而是很多孩子,而且每个人都带着独立的引爆装置。我们所有人都意识到放下这个危险的玩意儿可能性几乎为零。总会有某个蠢孩子因为想要知道会发生什么,而按下引爆按钮。”(摘自《超级智能》)。
如今人工智能已经成了热门技术,各大公司、各大高校和研究机构都试图获得更快的发展来拔得头筹。这样的竞赛机制也许会让某些害怕落后的团队通过增加冒险行为的方式赶上竞争者,而竞争者又会采用相同的方式,一直到达风险的最高水平。在舆论方面,大家对于越来越聪明的人工智能也是拍手叫好,而缺乏一些恐惧。
对于现在的弱人工智能,我们还可以通过技术手段去有效控制。但如果超级智能真的在几十年之内爆发,以我们的技术水平或认知水平,超级智能来到的那一天可能就是它们接管这个世界的那一天。
但,我们是人类,我们有科学、有艺术、有感情,我们有着无限的可能和创造力。所以,未来,在对人工智能抱着乐观心态的同时,人类也要在“硬件”和“软件”实力上努力建设,创造出更好的技术,更明白“人为何为人”,才有能力去控制超级智能,为人类带来有意义的价值。
文/石松