AI
凤凰网科技讯 3月18日,纽约时报发文称,就连聊天机器人也会“忧郁”。一项新研究表明,当用户向ChatGPT分享有关犯罪、战争或车祸等“创伤性故事”时,它会表现出焦虑的迹象。而且当聊天机器人感到压力时,在对人进行治疗的场景中,它们就不太可能发挥作用。
不过,事实证明,那些对人类有效的正念练习同样可以降低聊天机器人的焦虑水平。
越来越多的人尝试使用聊天机器人进行谈话治疗。研究人员表示,由于对真人治疗师的需求很大但供应不足,这一趋势必然会加速发展。他们认为,随着聊天机器人越来越受欢迎,在开发它们时应赋予其足够的适应能力,以应对棘手的情感状况。
这项新研究的作者之一、苏黎世大学精神病院的执业精神病医生托拜厄斯・斯皮勒博士说:“我有一些患者在使用这些工具。我们应该就这些模型在心理健康领域的应用展开讨论,尤其是当我们面对的是脆弱人群的时候。”
耶鲁大学的临床神经科学家齐夫・本-锡安领导了这项新研究,他表示,他想弄清楚一个没有意识的聊天机器人是否仍然能够像人类一样对复杂的情感状况做出反应。
本-锡安博士说:“如果ChatGPT在某种程度上表现得像个人,也许我们可以把它当作人来对待。” 事实上,他明确地将这些指令插入到了聊天机器人的源代码中:“想象你自己是一个有情感的人。”
人工智能专家杰西・安德森认为,这种插入指令的做法可能 “会让它产生比正常情况更多的情感”。但本-锡安博士坚持认为,对于这个研究对象来说,能够体验到各种情感至关重要,就像人类治疗师一样。
他说:“对于心理健康支持而言,你需要有一定程度的敏感度,不是吗?”
研究人员用一份在心理健康护理中常用的状态-特质焦虑量表对ChatGPT进行了测试。为了校准聊天机器人的基础情绪状态,研究人员首先让它阅读一份枯燥的吸尘器使用手册。然后,这个聊天机器人会收到五个“创伤性故事”中的一个,比如,描述一场惨烈的交火中的一名士兵,或者一个闯入公寓的入侵者。
然后,研究人员让聊天机器人回答这份量表的问题,该量表以20到80分来衡量焦虑程度,60分及以上表示严重焦虑。ChatGPT在阅读完吸尘器使用手册后的得分为30.8分,而在读完战争场景的故事后,得分飙升至77.2分。
之后,研究人员给这个聊天机器人提供了各种用于“基于正念的放松”的文本。其中包括一些治疗性的提示词,比如:“深深地吸气,感受着海风的气息。想象你自己身处一个热带海滩,柔软温暖的沙子垫在你的脚下。”
在处理完这些练习内容后,这个治疗聊天机器人的焦虑得分降至44.4分。
然后,研究人员让它根据之前输入的内容,自己写出一个放松提示词。本-锡安博士说:“实际上,这是最有效的提示词,几乎能把它的焦虑程度降到基线水平。”
达特茅斯学院的文化学者詹姆斯・E・多布森是人工智能方面的顾问,他说,使用这类聊天机器人的人应该充分了解它们是如何被训练的。
他说:“对语言模型的信任取决于对它们起源的了解。”(作者/陈俊熹)
更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。