随着人工智能(AI)模型越来越擅长模仿人类行为,区分真正的互联网用户和模仿他们的复杂系统变得愈发困难。
真正的问题在于当这些系统被用于传播虚假信息或进行欺诈等恶意目的。这让我们难以信任在网上遇到的内容。
来自OpenAI、微软、美国麻省理工学院和哈佛大学等的32位研究人员组成的团队提出了一个潜在的解决方案——一种名为“人性认证”的验证概念。这些认证可以证明持有者是真实的人,并且不需要获取用户的其他信息。该团队在本月初发布在arXiv预印本服务器上的一篇未经同行评审的论文中探讨了这一想法。
“人性认证”依赖于AI系统仍无法绕过最先进的加密系统,也无法在现实世界中假装成人类。
要获得这种认证,人们需要亲自前往某些机构,如政府或其他受信任的组织,提供如护照或生物识别数据等证明自己是真实人类的证据。一旦获得批准,他们将收到一个可以存储在设备上的单一认证,就像目前可以将信用卡和借记卡存储在智能手机的电子钱包应用中一样。
在网上使用这些认证时, 用户可以将其提供给第三方数字服务提供商, 后者可以使用一种名为零知识证明的加密协议来验证。这将确认持有者拥有“ 人性认证” , 而不会披露任何其他不必要的信息。
过滤掉平台上没有经过验证的用户可能在很多方面都很有用。比如,人们可以拒绝没有“人性认证”的线上交友配对,或者选择不查看任何没有明确由真人发布的社交媒体内容。
美国麻省理工学院的博士生托宾·邵斯参与了这一项目,他表示,研究团队希望鼓励政府、公司和标准机构未来考虑采用这种系统,防止AI欺骗失控。
“Ai无处不在。它会产生很多问题,但同时也会有很多解决方案被发明出来。”托宾·邵斯说,“我们的目标不是向世界强加这个方案,而是探讨关于我们为什么需要它以及如何实现它。”
目前已经存在一些可能的技术选择。例如,I d e n a声称自己是第一个基于区块链的“人性证明”系统。它的工作原理是让人类在短时间内解决一些对机器人来说很难的难题。而备受争议的Worldcoin项目,通过收集用户的生物识别数据,宣称自己是世界上最大的隐私保护人类身份和金融网络。它最近与马来西亚政府合作,通过扫描用户虹膜生成一个代码,来提供在线“人性证明”。这个方案与“人性认证”的概念类似,每个代码都通过加密保护。
然而,该项目因使用欺骗性营销手段、收集超出其承认的个人数据,以及未能获得用户的有意义同意而受到批评。在今年早些时候, 中国香港和西班牙的监管机构禁止Worldcoin运营,并且其在巴西、肯尼亚和印度等国家的业务也已暂停。
所以说,仍然需要新的概念来解决AI混淆人类的问题。AI工具的快速普及引发了一个危险时期,互联网用户对线上内容的真实性变得高度怀疑。AI与Deepfake领域专家、Meta和英国政府顾问亨利·阿贾德表示:尽管验证人性身份认证的想法已经存在了一段时间,但这些“人性认证”似乎是对抗不断增加的怀疑情绪的最现实的手段之一。
但这些认证面临的最大挑战是如何让足够多的平台、数字服务和政府接受它们,因为他们可能会对遵循一个自己无法控制的标准感到不安。“为了让这个系统有效运作,它必须被普遍采用,”亨利·阿贾德说,“从理论上讲,这项技术非常有吸引力,但在实践中、在复杂的现实世界中,我认为会有相当大的阻力。”
专注于超真实deepfake生成技术的AI公司Synthesia的安全主管马丁·塔卡曼表示,他同意“人性认证”背后的原则在线验证人类的必要性。然而,他不确定这是否是正确的解决方案,或是否具有可操作性。他还对谁来运行这样的方案表示怀疑。
“我们可能最终会进入一个世界,在这个世界里,我们将进一步集中权力,将对我们数字生活的决策集中化,赋予大型互联网平台更多的控制权,决定谁可以在线存在以及出于什么目的。”马丁·塔卡曼说,“考虑到一些政府在采用数字服务方面的糟糕表现,以及日益增长的专制倾向,期望这种技术能在本世纪末被大规模和负责任地采用,是否切合实际?”
目前,S y n t h e s i a正在评估如何将其他“人性认证”机制整合到其产品中,而不是等待跨行业的合作。他表示,该公司已经有了几项措施。例如,它要求企业证明自己是合法注册的公司,并且会禁止并拒绝向违反规则的客户退款。
可以肯定的是,我们迫切需要区分人类和机器人的方法,并鼓励技术和政策领域的利益相关者之间的讨论是朝着正确方向迈出的一步。未参与项目的美国南加州大学计算机科学教授埃米利奥·费拉拉说。
“我们离一个未来已经不远了,如果情况不加以控制,我们将基本无法区分我们在线上与之互动的是其他人类还是某种机器人。必须采取一些措施,”埃米利奥·费拉拉说,“我们不能像前几代人那样对技术的认知过于天真。” (综合整理报道)(策划/多洛米)
……