亚历克斯·芬克
如今,人工智能(AI)似乎无处不在。关于AI的预测很多,范围也很广,但很少有新闻媒体停下来分析AI到底是什么,以及ChatGPT这个似乎把这个话题带到我们关注中心的创新,与之前的AI工具有什么不同。
因此,在我们深入研究预测之前,我希望我们暂时停下,先定义一下我们的术语。
AI简史
AI是一个广义的术语,指的是用来赋予计算机智能思维的所有方法。在过去,大多数AI系统都是基于规则的——它们遵循系统在每种情况下需要如何表现的特定指令。
在过去的20年里,随着“机器学习”逐渐取代基于规则的系统,该领域经历了一场重大变革。在这个新范式中,机器表现得像是微型大脑模型(或者简单的“模型”)。模型可以通过摄取数据并从中找到模式,学习执行某些任务。
这种方法类似于儿童的学习方式,例如,给孩子足够多的猫和狗的照片,儿童(和一个计算机视觉模型)可以学习如何区分狗和猫。
最近,我们在机器学习的一个狭窄领域——自然语言处理,看到了巨大的进步。首先是转换器模型的出现,现在是大型语言模型(LLM)的建立。
大型语言模型(如GPT4)是在非常大的数据集(本质上是整个互联网)上训练的。他们能够通过遵循在学习阶段摄入的(人类书写的)文本中出现的模式,生成看起来很自然的文本。
将GPT4大型语言模型吸收入聊天机器人中,我们得到了ChatGPT。
LLM的优势和劣势
LLM的训练方式使它们非常擅长完成某些任务。它们能背诵从莎士比亚到粒子物理杂志的所有内容,并能释义、总结、解释和说明整个人类知识库,这只有世界级的专家才能做到。
但是,这些模型无法区分真正的知识和完全无意义的字句,除非通过反馈过程教它们人们喜欢什么(以及什么是不真实的)。结果是,这些模型产生了很多幻觉——而且通常在告诉人们他们想听的方向上出错。
LLM也无法区分原创作品和抄袭作品,而且经常写本身就是抄袭的文字(自己并不知情)。
最后,这些模型缺乏独创能力。它们输出的所有内容都是它们过去遇到的某种文字版本,经过微调使人们喜欢这些作品。
LLM将如何用于新闻业
LLM对新闻业的影响已经显而易见,而且还将与日俱增。
大多数情况下,我们看到它们以三种方式使用:
● 取代背景调查(节省时间)
● 在文章中填写不要求独创性的特定段落/部分(例如,涉及过去事件的历史)
● 撰写不要求原创或真实的低质量内容——点击诱饵、廉价娱乐新闻、哗众取宠的八卦新闻等等第三个用例是我想重点关注的,原因是它很可能在未来五年内改变整个行业的进程。由于大多数内容都是通过广告变现的,而且大多数广告都是按点击或按观看付费的,因此点击诱饵及其它形式的垃圾内容已经占据了互联网的大部分。
在这一过程中引入LLM将大大降低制作低质量内容的成本。因此,我们可能会看到更多的垃圾内容被产生出来,与此同时,创造各种内容的人的工作机会减少了。
新闻业务的哪些部分是安全的(目前而言)
真正的新闻工作需要调查、思考、与他人互动以及写原创新闻。ChatGPT不能做这些事情。
然而,如果低质量的内容成倍增加,它可能会从高质量的内容中拉走一些点击量,从而导致整个行业的预算削减和裁员。
最后,虽然这些模型在处理文字方面很出色,但它们对解决恐怖谷问题无能为力——看起来几乎(但不完全)像人类的机器人实际上不如真正的人类或像机器人一样的机器人有吸引力。
换句话说,新闻主播——我们在看新闻时实际看到的人——可能在未来几十年都是安全的。
总结
AI的最新进展带来的最大威胁是它们能够生成低质量的内容,这可能会让整个互联网看起来像你电子邮件帐户中的垃圾邮件文件夹。我们可能会看到争逐越来越少的点击量的垃圾内容越来越多,这将导致各级内容创作(包括新闻业)的预算大幅削减。
低质量内容的创造者将会受到影响,因为他们能够创造更多内容的能力意味着不需要太多的人;高质量内容的创造者将受到影响,因为越来越少的人能够在垃圾海洋中找到他们想要的内容。
我个人认为,减轻这种风险的唯一方法是开发基于AI的过滤器,让读者过滤掉垃圾、标题党及其它形式的低质量内容。这样的过滤器将有益于读者,也将有益于那些想要创造读者真正能找到的高质量内容的记者。
这就是为什么我个人致力于开发这样一种系统,并成立了一个公益性公司,将其商业化。
……