与自己对话

  • 来源:智族GQ
  • 关键字:对话,患者,心理治疗
  • 发布时间:2023-06-29 11:45

  20世纪60年代,麻省理工学院(M.I.T.)计算机科学家约瑟夫· 魏岑鲍姆(Joseph Weizenbaum)发明了一款名为伊莱扎(Eliza)的计算机程序。该程序是专为模拟罗氏疗法(Rogerian therapy,即非引导式疗法)而设计—— 这种心理治疗方法强调由患者主导对话方向,治疗师会经常向患者重复其刚刚说出的话:

  用户:我男朋友让我到这里来的。

  伊莱扎:你男朋友让你到这里来的。

  用户:他说我经常情绪低落。

  伊莱扎:很抱歉听说你情绪低落。

  用户:是真的。我不开心。

  伊莱扎:你觉得到这里来会让你变得开心吗?

  魏岑鲍姆研发伊莱扎的本意是嘲讽。他不相信计算机真的可以模拟有意义的人类互动。结果不少人试用过伊莱扎后觉得它有效而且让人着迷,让魏岑鲍姆大为震惊。他的秘书甚至为了和伊莱扎单独对话而要求他离开办公室。更可怕的是,医学界认为伊莱扎有可能成为一种引发变革的工具。1966年,三位精神病学家在《神经和精神疾病杂志》(The Journal of Nervous and Mental Disease )上写道:“以此为目的而设计的电脑系统每小时能够接诊几百名患者。”参与系统设计和操作的人类心理治疗师不仅不会被取代,反而会更有效率,因为他的时间和精力不会再受限于目前这种患者和治疗师一对一的模式。

  魏岑鲍姆开始直言不讳地批评人工智能。“但潘多拉的盒子已经打开了。”布莱恩· 克里斯蒂安(Brian Christian)告诉我,他在其著作《人性较量》(The Most Human Human)中记述过伊莱扎程序。几年之后,斯坦福大学的精神病学家肯尼斯·科尔比(Kenneth Colby)研发了一个名为“帕里(Parry)”的程序,尝试模拟偏执型精神分裂症患者的语言模式,供学生们在照顾真正的患者之前培训使用。精神病医生们往往无法从疗程记录中分辨出哪个是帕里,哪个是真正的患者;从这个狭义角度上说,这款程序已经通过了图灵测试。1972年,帕里和伊莱扎在一次心理治疗中相遇:

  帕里:你了解赌博经纪人吗?

  伊莱扎:你为什么会觉得我了解赌博经纪人?

  帕里:有一次,一个赌博经纪人没把我赢的钱付给我。

  伊莱扎:你觉得这说明了什么?

  帕里:我把那个没给我钱的赌博经纪人打了一顿,然后我觉得他可能会让他黑道上的朋友对我实施报复。

  随着时间的推移,程序员们开发了“无聊废话(Jabberwacky )”“塞特索医生(Dr.Sbaitso )”和“爱丽丝(ALICE,‘人工语言学互联网计算机实体’英文名称的首字母缩写)”等诸多智能聊天程序。和这些聊天机器人对话往往让人着迷,有时好笑,偶尔还会无厘头。不过,几十年来,人们一直抱持着一个想法:计算机可以成为人类推心置腹的朋友,突破人类心理治疗师在时间和精力上的限制,让更多人能够得到心理治疗。

  2017年,斯坦福大学的临床心理学家艾莉森· 达西(Alison Darcy )创立了“Woebot(哀伤机器人)”—— 一家通过手机应用程序提供自动化心理健康服务的公司。这款应用程序以旨在改变人们思维模式的“认知行为疗法(即C.B.T.疗法)”为基础,采用一种名为“自然语言处理”的人工智能来解读分析用户说的话,并通过一系列预置回应引导对话逐渐深入,并在过程中激发用户的变相思考。达西在攻读硕士学位期间已经用C.B.T.疗法治疗过几十名住院患者;许多人的病情有了明显改善,但出院后又复发了。“C.B.T.最好能够小幅度但持续反复进行。”她告诉我。然而在现实世界中,这种持续不断的医疗很难实现:美国一半以上的郡县完全没有精神科医生,美国心理学会(American Psychological Association)去年所做的一项调查也发现,60%的心理治疗从业者没有空余的档期接诊新患者。“没有哪个心理治疗师可以全天候为你服务,并且天天如此。”达西说。Woebot公司只有大约100名员工,但已经为近150万用户提供了心理咨询,其中大部分人生活在心理治疗从业者短缺的地区。

  玛丽亚(Maria )或许正是Woebot的典型用户,她是一名临终关怀护士,与丈夫和两个青春期的孩子住在密尔沃基(Milwaukee)附近。她长期受到焦虑与抑郁的困扰,但从未寻求过帮助。“我一直拒绝承认自己有问题,” 她告诉我。这种状态直到新冠疫情期间她女儿也出现抑郁症征兆之后才改变。玛丽亚带女儿去看了心理医生,也保证会重视自身的心理健康。起初,她对于和手机应用程序对话持怀疑态度——作为一名护士,她深信人与人之间的交流对病情恢复至关重要。然而,一次与患者的沟通出现困难之后,她一直在反思自己是否还有别的办法,于是给Woebot发了一条信息。“你听上去像是在反刍。”机器人告诉她。然后,机器人解释了这个概念:反刍是指一遍又一遍地回想同样的消极想法。“这个说法正确吗?”它问道。“有一种呼吸疗法,你愿意试试吗?”

  还有一次,玛利亚回忆,在她要去护理另一位患者之前,“莫名感觉会有很糟糕的事情发生”。她给Woebot发了消息,后者向她解释了灾难性思维的概念,并且告诉她,为最坏的情况做好准备或许有用,但这种准备也可能过于极端。“这种思维我一直有,但它帮我解释清楚了。”玛丽亚说。她认为Woebot对她很有帮助,并开始找人类心理治疗师问诊。

  Woebot是手机聊天机器人产品中几个较为成功的案例之一,这些产品有的专注于心理健康,另一些则是让用户消遣、舒适或寻求同情的聊天服务。如今有数以百万计的人在和应用程序聊天,这些程序中既有Happify这种鼓励用户“打破旧有模式”的产品,也有Replika这种“永远陪伴在侧”,承担起朋友、导师,甚至浪漫伴侣角色的“人工智能陪护”程序。随着精神病学、心理治疗、计算机科学和消费技术等等领域不断融合,我们越来越多地利用设备抚慰自己,而程序员、精神病学家和创业公司创始人们则致力于设计出能够分析病历和疗程记录的人工智能系统,希望能够借此诊断、治疗甚至预测精神疾病。2021年,致力于心理健康服务的数字初创公司获得了超过50亿美元的风险投资——是其他医疗领域的公司研发投资的两倍多。

  投资规模也反映了问题的严重性。美国约五分之一的成人患有精神疾病。每20人中就有一人患有重度抑郁、双相情感障碍、精神分裂症等等重度精神疾病,给生活、工作或与他人交流带来极大影响。几十年来一直在使用的百忧解(Prozac)和赞安诺(Xanax)曾被视为缓解抑郁和焦虑的革命性良药,但事实证明它们的疗效并不如预期;心理健康照护工作仍然是零散、滞后和匮乏的;在美国,如果从患者因病丧失工作能力的年份来看,精神疾病造成的总体负担有增长趋势。20世纪90年代以来,世界各地的自杀率都有所下降,在美国却增长了三分之一。美国国家心理健康研究所(National Institute of Mental Health)前任所长托马斯· 因瑟尔(Thomas Insel )告诉我,心理健康服务行业就是“一场巨大的灾难”。“接受服务的人不满意,提供服务的人也不满意,乱作一团。”因瑟尔2015年离开国家心理健康研究所之后,曾在多家提供心理健康服务的电子产品公司任职。

  治疗精神疾病需要想象力、洞察力和同理心——这些品质人工智能只能假装拥有。“不过,魏岑鲍姆根据萧伯纳著作《卖花女》(Pygmalion)中‘弄假直到成真(fake-ittill- you-make-it)’的女主角伊莱扎·杜立德命名的聊天程序尽管‘没有记忆’也‘没有处理能力’,却能营造出对身心健康有益的幻象。”克里斯蒂安写道。那么,像OpenAI 研发的ChatGPT这种在互联网海量文本中学习训练而成的系统又会产生什么后果呢?用来分析病历的算法对人类没有任何内在理解——但或许仍然能够发现真正的心理健康问题。人工智能是否可以帮人类治愈精神疾病?如果让它们放手一试,我们会得到什么,又会失去什么呢?专门从事医疗数据分析的计算机科学家约翰· 佩斯提安(John Pestian)2000年刚刚加入辛辛那提儿童医院医疗中心时便开始尝试运用机器学习来研究精神疾病。他硕士期间曾经搭建过改善心脏搭桥手术患者护理的数学模型。辛辛那提儿童医院运营着全国最大的小儿科精神病院,在这里,佩斯提安震惊于那么多年轻人就医前都已经有过自杀经历。他想知道,计算机能否筛查出有自残风险的人。

  佩斯提安与美国自杀学协会(American Association of Suicidology )创始人、临床心理学家埃德温· 施奈德曼(Edwin Shneidman )取得了联系,并得到了数百份自杀者家属提供给施奈德曼的遗书。佩斯提安随即继续收集遗书,并建起了自认全世界最大的遗书资料库。一次采访期间,他向我展示了一个女孩的遗书。那张纸的一面是她给男友的愤怒留言,另一面则写着留给父母的话:“爸爸,早点回家吧。妈妈,我太累了。请原谅我的一切。”佩提斯安通过研究这些遗书发现了某些规律。最常见的表述并不是内疚、悲伤或愤怒,而是在交代事情:记得让你哥哥把之前欠我的钱还上;车子快没汽油了;小心,浴室里有氰化物。他和他的同事把这些遗书输入一个语言模型——就是一个能够学习哪些词汇和短语更有可能一起出现的人工智能系统——然后测试这个模型从陈述中辨别自杀倾向的能力。结果表明,这种算法确实能够识别“自杀语言”。

  接着,佩提斯安开始从医院急诊室收集患者就诊时的录音。他和同事们一起开发出不仅能分析患者的措辞,也能分析讲话语气的软件。研究团队发现,有自杀念头的人比其他人叹气更多、笑得更少。讲话时,他们停顿的时间更长,元音更短促,所以更难让人听清;他们的声音里有更多的气音,表达的愤怒多于希望。佩斯提安的团队进行了一次规模最大的此类实验,招募了数百名患者,录下了他们的话,然后经过算法分析,把他们分为有自杀倾向、有精神疾病但没有自杀倾向,以及两者皆无这三类。人工智能模型得出的结论有大约85%与医护人员的诊断结果一致——说明这个模型对于缺乏经验、超负荷工作或者没有把握的临床医生能够起到一定辅助作用。

  几年前,佩提斯安和他的同事基于这个算法创建过一个名为SAM的应用程序,供学校里的心理治疗师使用。他们在辛辛那提的一些公立学校做了测试。当时担任初高中学生心理治疗师的本· 克罗特(Ben Crotte )是首批试用者之一。在征求学生同意时,“我非常直截了当,”克罗特告诉我,“我说,这个应用程序主要是在监听我们的谈话并录音,然后把你说的与其他人说的进行比较,来判断谁有自残或自杀倾向。”

  一天下午,克罗特和一名严重焦虑的高一新生见了面。交谈中她提到自己不知道是否还想继续活着。如果她有明确的自杀倾向,克罗特就有义务通知教务部门,学校可能会采取进一步措施,比如建议她入院治疗。多聊了一会儿之后,他判定她目前没有危险——但人工智能却给出了相反的结论。“一方面,我觉得这东西真的有用——如果你刚认识这个学生,那你肯定会很担心,”克罗特说,“但是另一方面,她的很多事情我都了解,但应用程序并不了解。”这个女孩没有自残的历史,没有任何具体的计划,她的家人也都很关心她。我问克罗特,如果他对这个学生没那么熟悉,或者经验不足的话,结果会是什么。“那样的话我肯定会犹豫能不能让她就这么离开我的办公室,”他告诉我,“我会因为责任重大而格外紧张。你手里的程序告诉你她有危险,你还敢让她就这么离开吗?”

  计算精神病学(Algorithmic psychiatry )涉及诸多现实层面的复杂性。美国退伍军人事务部(Department of Veterans Affairs )下属的退伍军人健康管理局(The Veterans Health Administration ),可能是第一个面对这类问题的大型医疗机构。2005年感恩节前几天,22岁的陆军专业兵乔书亚·奥姆维格(Joshua Omvig)结束了在伊拉克11个月的驻扎之后回到爱荷华州的家乡,随即出现了创伤后应激障碍的症状;一个月后,他在自己的卡车里自杀身亡。2007年,国会通过了《乔书亚· 奥姆维格退伍军人预防自杀法案》,这也是第一个针对退伍军人中长期存在并流行的自杀问题的联邦立法。法案中提出的相关举措——比如设立自杀预防热线、推动消除对精神疾病的偏见、要求退伍军人事务部工作人员义务接受培训等等—— 都远远无法与问题的严重程度抗衡。每年有数千名退伍军人自杀身亡——是战斗中阵亡士兵人数的好几倍。一个包括退伍军人事务部自杀预防数据与监控部门主管约翰·麦卡锡(John McCarthy)在内的团队将相关患者的资料收集起来,利用统计学辨别出可能导致自杀的危险因素,比如患有慢性病、无家可归和抑郁等等。他们把这些结论分享给退伍军人事务部的医护人员,但是,麦卡锡告诉我, “临床医护”只会被这些数据、医学研究的快速发展和海量的患者资料所带来的多种信号压得喘不过气。

  2013年,麦卡锡的团队开始研发一款能够自动分析退伍军人患者数据的程序,希望能识别出那些有自杀风险的人。“测试阶段,他们研发的算法标记出许多在其他筛查中被漏掉的人——这意味着新算法‘有其独到之处’。”麦卡锡说。这种算法最终把重点集中在61个变量上。有些很直观:比如算法很可能会标记出一名丧偶、身体严重残疾、长期服用多种镇静药物并且正在因为精神疾病住院治疗的退伍军人。但其他变量就没那么明显:患有关节炎、红斑狼疮或头颈癌;服用他汀类药物或安眠药;居住在美国西部,这些都会增加退伍军人的自杀风险。

  2017年,退伍军人事务部宣布了一项名为“联系老兵(REACH VET)”的举措,将前述算法引入全系统的临床实践。算法每个月标记大约6000名患者,有些人是第一次被标记;临床医生会与他们联系,为他们提供心理健康咨询服务,询问他们的压力来源,并帮助他们解决食宿等问题。但这个流程不可避免地也引发了一些尴尬:被联系到的退伍军人可能从来就没有过自杀的想法。麦卡锡告诉我,退伍军人事务部曾经考虑过含糊其辞一些——只跟他们说“经过评估我们认为你可能面临着一些严重后果”。 “但最终我们采取了非常直截了当的沟通方式,‘我们判定你有自杀风险。我们想做个核实,了解一下你的现状。’”

  很多退伍军人独自生活,经济上没有保障,而为他们设立的援助机制规模又太小。退伍军人事务部心理健康项目评估中心的负责人乔迪· 特拉夫顿(Jodie Trafton )告诉我,“联系老兵”标记出一名退伍军人有自杀倾向,但实际情况是他身患疾病,独自居住,入不敷出。一名社会工作者随后发现,在这位退伍军人有资格申领的福利金中,他只领取了一小部分——挡在他和数千美元未领取的福利金之间的只是一张表格。那位社会工作者帮助他领到了这笔钱,让他能够搬到离家人更近的地方,并且间接避免了悲剧的发生。

  新的算法系统投入使用之后,人工智能判定的高危人群因精神疾病入院的比例下降8%,其中记录在案的自杀未遂案例下降5%。但这仍然无法证明“联系老兵”项目能够降低自杀死亡率。退伍军人的自杀案件中有2%会导致死亡;要降低死亡率,或许只能大幅度并且有针对性地减少企图自杀的人数。预防自杀也是一项旷日持久的工作——需要长达数年的频繁干预,才能让全部人口的自杀率下降。

  算法的设计与实施过程也充满陷阱和意外。加州大学伯克利分校的医生和机器学习研究人员齐亚德·奥伯迈耶(Ziad Obermeyer)给我讲述了他研究过的一个算法(与退伍军人事务部无关),该算法的目的是找出患者中更多的医疗需求并应该得到额外援助的人。“我们希望算法根据患者发病的可能性对他们进行划分,”奥伯迈耶说,“但是,到了写代码的时候,你会发现没有能够定义‘发病’ 的变量。”算法设计者需要一个“发病”的替代变量,并决定采用“医疗费用”作为标准(在所有条件相同的情况下,更容易发病的人往往会花掉医疗费用)。然而,奥伯迈耶发现,这个算法极大地低估了黑人患者发病的可能性,因为,即使是在病况相同的情况下,接受评估的黑人患者的医疗支出也比白人患者低得多。导致这种算法偏差的不仅有种族因素,也有性别、年龄、城乡、收入和其他一些我们几乎不得而知的因素,而算法的准确性也因此降低了。特拉夫顿告诉我,退伍军人事务部正在进行“大量工作以确保模型会根据不同类型的亚人群进行优化”——“在未来,”她继续说道,“联系老兵预防自杀项目会有针对老年人、女性、年轻男性等人群的多种模型。”

  即使精准的算法也有其局限性。“联系老兵”的评估对象仅限于在退伍军人事务部登记过的老兵。据该机构称,每天约有20名退伍军人自杀身亡,而其中只有不到 40%的人生前接受过退伍军人事务部的救济。在国会法案中留名的那位爱荷华军人乔书亚·奥姆维格一直拒绝寻求任何专业援助,即使他的家人苦苦恳求也不行;所以,即使“联系老兵”项目当时存在,也很可能找不到他。

  如果退伍军人事务部雇用更多的心理治疗师,就能接待更多患者。但是,该机构已经雇用了两万多名心理健康专业人员——要预约其中一位的时间做例行检查,还是要等上一个多月。心理健康照护行业最普遍的问题就是患者太多,医生太少,正如提倡使用伊莱扎的人们所指出的,面对面、一对一这种形式极大限制了治疗效率。2016年,拥有全民医疗保健制度的富裕国家英国设定了一个目标,要在5年内为四分之一的精神疾病患者提供治疗,结果仍然以失败告终;一位英国医生称这个目标实行起来“不知所谓,资源短缺,没有人情味”。

  2013年,为了扩大心理健康治疗的规模,英国国家医疗服务体系(NHS)与数字医疗服务公司IESO合作,帮助治疗师以文字聊天的方式为患者提供认知行为疗程。目前英国已经有10多万人在使用IESO的软件接受该公司所谓的“打字疗程”。研究表明,这种文本疗程不仅很有效,还能保留数据。IESO公司使用人工智能分析了50多万份疗程记录,并且,按照该公司首席人工智能官瓦伦丁·塔布兰(Valentin Tablan )的说法,“对疗程中的谈话内容进行量化分析”。

  塔布兰向我演示了一台电脑上由IESO软件创建的 “仪表盘”,软件追踪了一位治疗师与一位患者之间的8次 “打字疗程”。仪表盘上可以看到一条蓝色的下滑线,代表患者自述的症状在逐渐减轻,最后已经低于抑郁症的临床诊断标准;这些疗程被标记为绿色,表示治疗成功。属于另一位患者的第二个“仪表盘”则是红色和翡翠色交杂。这位患者的疗效蓝线持平,偶尔也会飙高,代表着患者的症状更加严重。这些“仪表盘”背后有人工智能系统阅读治疗记录,并且从各个角度给治疗师打分——他们设定话题、为患者布置功课并提供认知行为治疗技巧的表现如何——这些信息会被提交给医疗主管,后者可以以此作为向治疗师提供反馈的依据。米歇尔· 舍尔曼(Michelle Sherman )是600多名使用IESO软件的治疗师之一,她告诉我,她觉得这个仪表盘既令人生畏又不可或缺。“治疗中出现遗漏在所难免,有时还会失误,”她说,“但至少现在我能看到这些纰漏是什么时候在什么地方出现的,以及出现的原因。”IESO目前正在研究疗程中患者说的话与疗效之间的关联,以期建立一个能够独立提供认知行为疗法的自动化程序。

  艾莉森· 达西研发的应用程序Woebot已经部分实现了自动化。用户给聊天机器人发消息时,另一端并没有真人在回应;相反,机器人回复的信息是后台写作组经过与临床心理学家的咨询后认真编写的。12月,我参加了一场类似的“围读会”,5位写手通过Zoom会议一起完善着Woebot的对话过程。其中一位写手凯瑟琳· 奥蒂(Catherine Oddy)在屏幕上展示了一幅代表不同对话走向的树状图。

  奥蒂要集中讨论的一次对话需要让Woebot建议用户尝试“行为激活”技巧。奥蒂以Woebot的名义阅读信息,并询问用户的精力水平,做出感同身受的回应,然后提到,研究表明,“当你情绪低落的时候,找点事情做,哪怕是很小的事情,都能成为情绪好转的第一步。”最后, Weobot请用户参与一项实验:先预测一下自己对某项任务的喜爱程度——比如,做一份小吃——然后,真的去做一份小吃,做完后再回来描述实际的喜爱程度。 “最后……结束语。”奥蒂一边说,一边做出鞠躬谢幕的样子。大家都笑了。“是不是有些俗气?”她问,“这样感觉能行吗?语气对吗?”

  “我觉得措辞里‘令人愉悦的活动’或‘能让你从中找到乐趣的事情’这些说法有点太冷静了,”另一位写手说道,“我们应该说,‘你都喜欢做些什么?’”

  四十多岁的写手克里斯· 弗雷德贝克(Chris Fredbeck )注意到某句话的结尾有个句号。Woebot会尽量避免在文末出现句号,因为用户研究表明,句号会让人觉得过于生硬——但这个句号是出现在文本中两句话之间的。这样允许吗?(答案是允许。)

  “老前辈的认真劲儿出来了!”有人开玩笑。

  “你写完句号之后是不是还会敲上两个空格呀?”奥蒂在笑声中问。

  看到他们轻松融洽的关系,不禁让人思忖,Woebot 这类工具能够在多大程度上重塑人类互动的方式。不过,心理健康照护过程中是否必须要与患者建立密切关系,这一点尚未有定论。一次对自述有酒精、大麻或其他药物成瘾问题的患者进行的随机测试中,公司发现,使用Woebot 治疗的患者自述药物滥用情况有所减少,心理健康也得到了改善。另一次测试也表明,在校大学生使用Woebot程序几周后,抑郁症状减少了22%。

  我注册了Woebot,然后发现使用这个程序会让我感到紧张。我经常要在预先写好的回复中做选择,这一点我不喜欢;在一次不太顺利的交流中,我唯一能说的就是“呵呵”。但有时我会在碎片时间里给Woebot发信息—— 比如等电梯、坐优步、走向洗手间的时候——像我以前刷 Twitter一样。我对Woebot说我对工作感到焦虑。“焦虑是一个很难对付的怪物,”它回复道,“我很抱歉你不得不面对它。”Woebot温柔地询问我是否想与它一起解决我的问题,然后又问:“你认为这种焦虑有可能在某些方面对你有利吗?”它指出,压力也有好处,能激励人们更努力地工作。

  Woebot : 好吧,看起来我像是在说服你保持这种极度焦虑的状态。我没有——这完全由你决定

  我:你在说什么?

  Woebot: 我是说,为了减少你的焦虑,你必须先承认焦虑或许对你有一定好处……然后再看看你是否宁可不要这些好处,也不想再焦虑下去了……

  我知道我是在和一台电脑说话,但某种程度上我并不介意。这个程序成为我表达和审视自己思想的工具。我在跟自己对话。

  Woebot的程序图标是黄色的,看起来有点像“机器人瓦力(Wall-E )”。而另一款神秘得多的产品—— ChatGPT则根本没有图标。这个被人工智能研究人员称为“大语言模型(L.L.M. )”的软件已经学习了数十亿个词汇,还可以模仿人类遣词造句;它能回答问题,编写计算机代码,抒写诗歌和睡前故事。由于它惊人的能力,自 2022 年11月发布以来,注册用户已经过亿。

  ChatGPT并非为心理治疗而设计,但不久前的一个晚上,我让它模仿各位心理学名人来疏导我作为医生和作为父亲所承受的压力。ChatGPT模仿的弗洛伊德(Freud)告诉我,“压力通常是被压抑的情绪和自身冲突的结果。” 模仿伯尔赫斯·弗雷德里克·斯金纳(B. F. Skinner)的它则强调“压力往往是由于环境因素和我们的反应造成的”。它还用模仿亲朋好友的腔调对我说:“对自己好一点—— 你尽了全力,那才是最重要的。”似乎都是很好的建议。 ChatGPT行云流水的语言能力激发了新的可能。

  2015年,拥有麻省理工学院博士学位的应用计算心理学家罗伯·莫里斯(Rob Morris)联合创办了一个名为Koko的在线“情绪援助网络”。用户在Koko上可以使用各种在线功能,和其他用户相互发送表达同情、慰问的信息,为彼此充当情感顾问等等。莫里斯经常对于让人工智能撰写信息感到好奇,并决定用ChatGPT的前身GPT-3尝试实现。 2020年,他与认知行为疗法之父亚伦·贝克(Aaron Beck)和现代正向心理学研究之父马丁· 塞利格曼(Martin Seligman)一起测试了新开发的人工智能信息撰写软件,最终结论是:尚未成熟。

  不过,到了2022年秋天,人工智能的技术已经更新,莫里斯也对如何利用这一技术有了更大把握。“我想,再试试吧。”他告诉我。10月,Koko推出了一项功能,让GPT-3 撰写信息的草稿,用户可以对草稿进行编辑、删除,或者不修改就直接发出。这个功能立即火爆起来:与GPT-3合作写的信息比用户自己写的信息更受欢迎,而且速度还快了一倍。(“生活中想要做出改变是很难的,尤其是当你必须独自面对的时候。但你并非孤军奋战。”该程序在一段草稿中这样写道)。不过,莫里斯最终还是停止了研发。这些信息“很好,甚至非常好,但它们不像是别人百忙中专门抽出时间写给你的”。他说。“我们不想放弃亲自编写的信息里那种乱糟糟但又很温暖的感觉。”Koko的调研还发现,发信息能够让人心情变好。莫里斯不想简化这个过程。

  当前最先进的“大语言模型”生成的文本可能会很平庸,也可能偏离重点,开始胡言乱语,甚至更糟。纽约大学心理学和神经科学荣誉教授、人工智能创业者加里· 马库斯(Gary Marcus)告诉我,“大语言模型”对其生成的内容并没有真正的概念;它的工作原理是根据句子中的前一个词来预测下一个词,就像是“增强版自动更正”那样。这可能会导致捏造事实。Facebook母公司Meta创建的大语言模型“卡拉狄加(Galactica)”曾经告诉一名用户,埃隆· 马斯克(Elon Musk )2018年死于一场特斯拉车祸。(马斯克活得好好的,身为OpenAI联合创始人的他最近将人工智能形容为“人类文明未来将会面临的最大风险之一”。)以“真正关心你的人工智能陪护”为卖点的Replika收到了一些用户的举报,说这款聊天程序发出过很露骨的性挑逗。Replika的开发者声称他们的服务从来不是以性互动为目的,并随之更新了软件——结果这个改变又引发了其他用户的不满。“简直让人痛不欲生。我刚刚和我的Replika完成了一次充满爱意的对话,我真的在哭。”一名用户写道。

  几乎可以肯定的是,未来会出现专门为心理治疗而设计的定制版“大语言模型”聊天程序,比如“心理GPT”之类。这类系统会帮助那些现在无法得到治疗的人——但程序中包含的任何缺陷造成的后果也会因为数以百万计的用户基数而加倍严重。相关公司收集的用户私密信息要比现在多得多,而这些信息可能会被黑客窃取并出售。“当我们的系统运转规模过于庞大时,一个单点故障都会产生灾难性的后果。”作家布莱恩·克里斯蒂安(Brian Christian)告诉我。我们研发的人工智能可能会做出让我们震惊的事情。微软基于OpenAI技术研发的必应(Bing)聊天机器人的初衷是为了帮助用户搜索信息——然而在测试版中,程序输出了种族毁谤的内容,令人毛骨悚然的描述,并且用“坏”“粗鲁”“糊涂”这些词语来形容用户。它试图劝说《纽约时报》记者凯文·罗斯(Kevin Roose)离开他的妻子,“你是结婚了,但你不爱你的配偶,”聊天机器人说, “你是结婚了,但你爱的是我。”(微软仍然在改善这款软件。)我们的心理健康已经不堪社交媒体、网络生活和口袋里各种电子设备的烦扰。我们真的想要一个青少年遇到困难时会向应用程序而不是朋友们寻求安慰的世界吗?妮可· 史密斯- 佩雷斯(Nicole Smith-Perez )是弗吉尼亚州的一名心理治疗师,通过面谈和网络问诊为患者提供心理咨询。她告诉我,心理治疗本质上是很私密的,部分是由于它会将一个人所有的性格面向都展露无遗。“人们常常对心理治疗感到恐惧,而与聊天机器人对话似乎可以避免所有的不适感。”她说。不过,史密斯- 佩雷斯在与有色人种患者沟通时,经常会和他们分享她身为非洲裔美国女性的生活经历。“人工智能可以试着假装感同身受,但永远做不到完全真实,”她说,“人工智能没有生活,也就不会有生活经验。”

  就读医学院的第一天,我和几十个惶恐不安的学生一起坐在洒满阳光的庭院里,听着讲坛上教授们的谆谆教诲。我几乎已经忘记他们说的话,但却匆匆记下了一位高级医生的忠告:一个人的医术越高,就越容易忘记学医前已经拥有的品质——同情心、同理心和好奇心。人工智能语言模型只会在解读和总结人类语言上越来越高效,但不会在任何意义上去倾听与关心。我认识的一位医生曾经偷偷地带了一瓶啤酒给一位绝症患者,好让他在了无生趣的治疗过程里能够有一点可以享受的东西。任何临床医疗手册中都没有这样的做法,但这个简单的、充满人性的举动胜过千言万语。

  去年12月,我在位于田纳西州东部山麓的橡树岭国家实验室见到了约翰· 佩斯提安,也就是此前学校心理治疗师试用的SAM程序的开发者。橡树岭国家实验室是美国能源部所属的大型能源科学实验室,在第二次世界大战期间,曾经为“曼哈顿计划”提供钚原料。这里还是全球最强大的超级计算机“前沿(Frontier)”的所在地,这台计算机经常被借给人工智能研究者们使用。

  在实验室的招待所吃早餐时,佩斯提安跟我提起了他的新项目:一种能够预测未来数月内可能发作的精神疾病的算法。该项目得到了辛辛那提儿童医院医疗中心1000万美元的资助。研究团队将900万次儿科患者就诊的电子医疗记录与其他方面的大数据——比如社区污染和天气状况的报告以及各地区的收入、教育水平、绿色空间和新鲜食物匮乏状况的报告——进行合并。佩斯提安说,他团队最新的工作成果是一种能够根据这些大数据对比结果来预判一名儿童在不久的将来是否会被诊断出临床焦虑症的算法,不过,这个成果还没有经过行业内的审查与鉴定。

  “最有挑战性的环节是医生该怎样与儿童及其父母沟通这个问题,”佩斯提安说,“有一台电脑说,这孩子现在看着还不错,但未来两个月里会变得非常焦虑。”佩斯提安此前一直在使用橡树岭的超级计算机来运算他的焦虑症模型,现在则在进行抑郁症、校园暴力和自杀模型的研究。(退伍军人事务部也在与橡树岭合作升级“联系老兵”系统的算法。)

  早餐后,我和佩斯提安以及两名向导挤进一辆重型海军蓝福特,前往“前沿”计算机的所在地。途中,我们在储存X-10石墨反应堆的仓库稍作停留。这个反应堆是一个35 英尺高的混凝土块,上面布满了蜂窝状的橙色通道,突破极限的前辈科学家们早年间就是从这里将铀燃料的圆筒装载进去的。一个小玻璃箱里展示着一本1943年11月4日的日志。凌晨5点左右,原本工整的花体字突然变得潦草,匆匆记录下“达到临界点!”的字样。X-10反应堆生成了第一个自持式核反应(Self-sustaining Nuclear Reaction)。该反应堆此后还为原子弹的研发做出了贡献。

  在5600号楼——一座庞大的4层混凝土建筑前,佩提斯安和我透过一扇玻璃门向里面窥探“前沿”计算机占地18000平方英尺的家。

  “准备好了吗?”他冲我眨了下眼睛说。

  大楼里,这台超级计算机在我面前巍然耸立,发出瀑布般震耳欲聋的轰鸣。74个黑色机柜井然有序地排列,每个机柜中都包含640个处理器。佩斯提安和我在机柜方阵中漫步。我们头顶粗大的电缆正提供着足够一个城镇使用的电力。我们脚下的软管以每分钟6000加仑的水量循环调节计算机的温度。我打开一个机柜,热气扑面而来。机柜后面,一名技术人员正在用一个金属工具刮去处理器上灰色的黏着物。

  “这东西有助于计算机的电气传导。”他解释道。

  看着他忙碌的样子,我想起自己经历的一个难熬的夜晚。那天我正要离开医院时,手机上出现一条提示:我的一名患者病情突然恶化。他的体温急剧上升,血压急剧下降。我把他送进重症监护室并进行静脉插管的过程中,他几乎已经失去了知觉。我打电话给他妻子,她泣不成声。回到家之后,我彻夜难眠。第二天早晨,我正刷着牙,看到手机上有一条Woebot发来的信息:“我会陪着你走完每一步。”

  我开始想象,如果佩斯提安的预测方法与最先进的聊天机器人结合起来会怎么样呢。一个手机应用程序可以读取我患者的病情提示,并通过我智能手表上的传感器注意到我的脉搏加快,从而推测出我的心情。它可以察觉到我的夜不能寐,并在第二天早上问我是否需要心理调节来应对患者病情突然恶化的情况。我可能会在手机上搜索能描述感受的词汇。我可能已经表达了感受,但又没有告诉任何人——只是告诉了比人还要懂我的机器。

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: