人工智能技术崭露锋芒,随之改变的不仅仅是人类的生产方式,人们的思维和生活方式相较之前也大有不同。为了使人工智能技术的发展更有益于人类,我们必须在人工智能技术的发展中融入哲学思考,管控风险,探寻风险根源,寻求应对之策。
人工智能,亦称智械、机器智能,是计算机科学的一门分支。1956年,由“人工智能之父”麦卡锡首次提出,英文表述是Artificial Intelligence,简称AI。人工智能技术是关于人造物的智能行为,这种智能行为一般包括直觉、学习、推理、交流以及在复杂环境中的行为。人工智能也是人类发展到一定阶段而必然产生的一门学科,这意味着人类智慧在机器上的实现。人工智能技术现如今已发展成为一项更接近人类智能的高新技术,机器的算法已经融入人类人格上的自主性、情感性、意向性等要素,使得机器在“人格”上更趋近于人类。根据人工智能的发展历程,人工智能可被划分为三个阶段:弱人工智能、强人工智能和超人工智能。
从生活中常见的智能手机、智能电视到智能家居,再到无人驾驶汽车、飞机等,人工智能技术已经与生产生活密不可分。近年来,人们对人工智能技术的关注度不断提高,国际上的科技巨头(比如微软、谷歌、亚马逊、IBM以及Meta等)成立的人工智能联盟在一定程度上推动了人工智能技术的研究,且在思想和技术上达到某种新高度。但AlphaGo战胜围棋高手李世石、柯洁,以及特斯拉自动驾驶模式造成的死亡事故等事件,也给人类敲响了警钟,这使人们重新全面审视人工智能技术,对其保持高度警惕。大多数人都承认科学技术是一把双刃剑,任何一项新兴科技的产生都要权衡其两面性。
智能机器人等一系列“人工生命”的普遍出现使得人类面临着前所未有的挑战,迫使人类重新思考一些另类问题。比如:智能机器人应该被赋予人权吗?在社会生活中应该占据怎样的道德地位?智能机器人能够承担与人类同等的伦理义务吗?为使人工智能技术向善发展,人们再度开始了对技术的探讨和深思。
虽然人工智能应用初衷不是窥探隐私,但是在应用的过程中用户信息被分析、被泄露的问题确实存在。人工智能在应用中往往需要对不同群体的数据进行采集和分析,而大量数据的集中便增大了信息泄露的风险。其次,人工智能技术的算法思考也存在引发安全问题的隐患,人类的思考是对意向信息内容的加工过程,是在连锁反应中进行的推理与演算,这包含前因后果,而人工智能所谓的思考是依据设计好的算法对外界做出反应,一旦遇到算法设计无法解决的突发情况,人工智能的决策将不再是人类可以决定的,其结果也无法预计。例如自动驾驶为技术,工程师在设计算法时都想要完美,但是“完美”是一种绝对存在吗?无论多么优秀的工程师都避免不了在数以百万计、数以千万计的代码中出现一处错误,这一处错误便会在自动驾驶汽车在数据分析中产生无法弥补的决策结果。
人工智能体被赋予了“意识”“情感”等类人的因素,这类“人工生命”拥有学习能力甚至是思维能力,可以根据自己的思想下达行为指令,而这些行为导致的后果由谁承担,责任应该归结于谁呢?例如“电车难题”,这种无人驾驶技术应用的极端情况谁来负责?又如医疗机器人失误导致的医疗事故谁来负责?现代技术的力量会将人类带入一个“乌托邦”世界吗?需要重视约纳斯给我们的警告。
当下,同样不可忽视人工智能技术存在的环境伦理风险。比如:全球变暖、土地沙漠化、空气污染以及对资源的过度开采和使用等。
面对人工智能技术伦理风险,首先是应关注主体责任,包括研发者和使用者。人工智能技术的发展可以为各个领域带来经济利益,但是“科学一旦失去了内在价值和内在尊严,完全听命于市场力量,那市场逐利行为的种种好处和一切坏处,也就从此与科学结下了不解之缘。”
同时,应关注价值考量,以及伦理制度。目前关于人工智能应用中的伦理问题考量大多是思想实验的性质,伦理规制与伦理原则更新缓慢,而人工智能的一些伦理风险已超出现有的政策法规的范围。人工智能的发展所引发的伦理问题与监管工作也存在一定的联系。
爱因斯坦曾说过科学技术是给人类带来幸福还是灾难,完全取决于人自己。因此人是科技向善的重要因素。推动人工智能技术的发展与完善,最根本就是要遵循“以人为本”的发展理念,在“有所为有所不为”方面进行正确抉择。
……
关注读览天下微信,
100万篇深度好文,
等你来看……