在7月1—3日召开的夏季达沃斯论坛上,作为引领新一轮科技革命和产业变革的重要驱动力,人工智能毫不意外也是论坛的热门话题。人工智能的“信任”问题便是其中议题之一。人工智能的信任问题一直伴随着其发展被公众广泛关注,不少人对人工智能的成果是否会给人类和社会带来危害一直存在担忧,甚至不少大公司对从事相关技术工作的工程师已经开始进行特殊的道德培训。之前,DeepFake“AI换脸”和DeepNude “一键脱衣”再次引发人们对于“人工智能到底能干什么,我们真的能信任人工智能吗?”的讨论。
事实上,可以从两个角度来看:人工智能是否能够信任?是否值得信任?
是否能够信任讨论的是“准确性”问题,人工智能技术与产品的成熟度,是否已达到提供精准服务的水平?以自动驾驶为例,2018年上半年发生了4起车祸:Uber自动驾驶车致路人死亡、特斯拉Model S 追尾消防车、特斯拉Model 3翻车入河、福特Argo致乘客受伤,一系列事故似乎让人根本不敢接受自动驾驶。然而,据特斯拉2018年第四季度安全报告数据显示:自动驾驶的特斯拉车辆,平均每291萬英里会出现一起事故;由人类驾驶的特斯拉车辆,平均每158英里出现一次事故。这样看来,人工智能似乎比人更加能够被信任。事实上,人工智能作为一种新兴技术,像历史上任何技术的发展一样会渐趋成熟。当我们在这里讨论人工智能是否能够被信任时,它已经渐渐地走进搜索引擎、打车软件、学习助手,走进家庭、安防、交通、医院及学校等各个领域。因此,我们应该乐观而谨慎地对待新技术的发展过程。
是否值得被信任讨论的是“安全性”问题,是人们对于未知人工智能时代的极端想象与恐惧。2019年6月,“波士顿动力Atlas机器人”的新视频在社交媒体疯传,视频中机器人因为测试人员对其施暴而采取反击,最终演变成人与机器人的混战。虽然这则视频后被证实为合成,但随着人工智能的急速发展,人类是否会被机器人取代?能够自我学习、修复、完善的机器人是否会在某一天突然失控,成为妄图统治人类的怪物?
人工智能是以程序来模拟人脑认知、推理和决策的系统科学,其核心目的是使机器能够胜任一些只有人才能承担的工作与任务,本质是海量数据的训练、推理及决策。尽管目前世界上最先进的机器人还远远不能成为终结者,但我们不得不承认,人工智能对人类发展的影响已经产生。
那我们又该如何建立防范机制?就目前来看,人工智能应用的领域越来越广,人们的长相、身体、年龄、喜好、情绪、需求等各种数据被人工智能采集、分析,并通过疾病诊断、消防营救、机器人教育、犯罪预警、自动驾驶等各种形式为其服务。随着技术逐渐强大,服务快速延伸,人工智能公司也开始通过在技术和人员方面建立防护机制来寻求用户的信赖,以获得长远的发展。
乐聚机器人CEO常琳接受采访时曾说:“我们在机器人研发时就搭建了信任系统,以此作为技术管制的手段。工程师必须按照控制框架进行设计,以保证程序和信息的安全。保密、透明、防护是我们机器人设计的三个重要安全准则。”
人员是技术安全的关键因素。2018年底,埃森哲和英特尔合作调查了305家企业,其中70%的公司对其从事人工智能相关技术工作的人员进行了道德培训。尽管道德培训不是防范人工智能“破坏性行为”的关键手段,但也一定是必须有的措施之一。
除了企业的主动性防护机制,第三方审查也是建立人工智能信任机制的重要方式。对于初生的人工智能产业来说,需要清晰的标准和严格的监管机构来规范行业行为,维护合格合规产品及用户的权益。
冷晓琨
……
关注读览天下微信,
100万篇深度好文,
等你来看……