避免用我们创造的智能“娱乐至死”

  • 来源:信息化视听
  • 关键字:智能,人工智能,发展
  • 发布时间:2023-10-08 15:43

  文/孙凌凌

  人工智能(AI)技术的快速发展有可能改变各行各业,并对我们的日常生活产生重大影响。然而,必须优先考虑道德因素,并通过减轻潜在风险和危害,确保这些技术以负责任和安全的方式开发和部署,就像对待任何媒介都应做的那样。

  这就要求决策者、行业领导者、研究人员及其他利益相关者进行持续的对话和合作,以确保实现AI的好处,同时最大限度地减少潜在风险和危害。

  美国政府在解决与AI相关的潜在风险和道德问题方面采取的积极措施,例如最近与领先AI公司的首席执行官举行的白宫AI峰会,是确保AI负责任地、安全地开发和部署迈出的积极一步。

  尼尔·波兹曼著作《娱乐至死》提供了媒介理论在实践中的一个显著例子。尼尔·波兹曼在其于1985年出版的这本影响深远的书中指出,电视作为一种占主导地位的传播媒介的兴起,对公共话语和文化产生了深远的影响,导致批判性思维技能的削弱和公共辩论的浅薄化。随着我们面对AI扮演着越来越重要的角色的数字时代的挑战和机遇,波兹曼的见解比以往任何时候都更有意义。

  虽然AI在改善我们的生活和解决复杂问题方面前景广阔,但它也带来了我们必须应对的重大风险和挑战。最紧迫的担忧之一是,随着我们疲于应对所面临挑战的复杂性和规模,人类智能和人工智能可能会导致我们走向灭亡。

  智能的魅力是令人神往的:它承诺帮助我们了解世界,预测未来,解决看似无法克服的问题。然而,随着我们变得越来越智能,我们也可能更易受狂妄自大、过于自信和目光短浅的危害。

  我们可能会相信我们有所有的答案,我们可以控制自然的力量,或者我们可以设计出解决任何问题的方法。这可能导致一种危险的自满,并忽视我们行动的意料之外的后果。

  此外,随着AI变得更加复杂和自主,它可能会超出我们理解和控制它的能力。我们可能会创造出比我们更聪明的AI系统,但它们也会变得更加不可预测、难以捉摸,并具有潜在的危险。

  我们可能无法预测或防止它们的失败,也无法以符合人类价值观和目标的方式规范它们的行为。我们可能会无意中创造出我们无法打开或理解的“黑盒子”,但它们有能力影响我们的命运。

  此外,当我们更多地依赖AI来解决问题和做决策时,我们可能会失去自己批判性思考和道德判断的能力。我们可能会依赖机器来引导我们,为我们提供答案和解决方案,但不完全理解潜在假设和折衷。

  我们可能忽视问题的人类维度,以及解决问题需要同理心、创造力和直觉。当我们沉浸在虚拟现实和网络空间中时,我们可能会脱离自然世界和我们自己的人性。

  从这个意义上说,智能是一把双刃剑:它可以增强我们的能力,改善我们的生活,但如果我们不能明智地、负责任地使用它,它也会导致我们的灭亡。我们需要培养一种“批判性智能”,它结合了严谨的分析、深刻的反思、谦逊的意识和对自身局限性的认识。

  我们需要培养一种“道德智能”,这种智能重视人的尊严、同情心和正义,并且认识到地球上所有生命的相互联系和相互依存。我们需要培养一种“生态智能”,它尊重自然世界,寻求保护和增强其多样性和抗逆力。

  正如波兹曼警告的那样,如果我们做不到这一点,我们最终可能会自娱自乐至死,但这一次不仅仅是通过电视,而是通过AI介导的虚拟现实、社交媒体回音室和算法决策。风险很大,但如果我们能够利用我们的智能为共同利益和勃勃生机的生命服务,那么创造、创新和进步的机会也很大。

  在AI技术的开发和部署中,确保我们避免用我们创造的智能“娱乐至死”是一个不可或缺的考虑因素。当我们创造和部署AI技术时,我们必须注意它们对人类体验和行为的潜在影响,避免成为技术的被动消费者,并采取措施确保以促进批判性思维、有意义的话语,并且不会对整个社会造成有意或无意的伤害的方式开发和使用它们。

  最终,作为人类,应该以一种有益于我们的方式使用AI技术。重要的是要认识到,虽然AI可以帮助我们完成许多任务,但正是我们的创造力、情商和批判性思维让我们与其它物种不同。

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: