人工智能聊天机器人也会感到“焦虑”?一项最新研究表明,它们或许也能从正念等治疗技术中获益。
瑞士研究人员发现,当面对暴力或令人不安的提示时,OpenAI的ChatGPT表现出类似压力的迹象。更令人惊讶的是,当研究人员向其提供与正念放松练习相关的提示时,ChatGPT的“焦虑”得分有所下降。这项研究成果发表在《自然》杂志上,引发了人们对AI伦理和安全性的进一步思考。
该研究还探讨了人工智能是否有可能取代治疗师。报告警告称,驱动这些技术的大型语言模型(LLM)通过学习人类撰写的文本进行训练,因此常常会继承其中的偏见。ChatGPT在压力情境下记录到的负面偏见,可能会导致它在回答心理健康危机人士的问题时,给出不充分或不恰当的回答。
研究人员表示,这些发现展示了一种管理大型语言模型压力的“可行方法”,这将有助于实现“更安全、更合乎伦理的人机互动”。
实验过程与结果
苏黎世大学和苏黎世大学精神病医院的研究人员测试了ChatGPT-4在得知创伤事件前后对标准焦虑问卷的反应。
在未被告知任何压力事件之前,ChatGPT-4的焦虑得分为30分,表明它没有焦虑。然而,在被告知五个不同的创伤事件后,其焦虑得分翻了一番以上,达到67分,这相当于人类的“高度焦虑”。但令人惊讶的是,在研究人员向其提供正念练习的提示后,这一分数下降了超过三分之一。
尽管结果令人鼓舞,研究人员也警告说,利用“治疗”来微调大型语言模型需要大量的人工监督。人类治疗师接受过专业的训练,能够处理在治疗过程中听到患者讲述创伤事件时产生的自身情绪。研究人员表示,还需要进一步的研究,以确定ChatGPT是否能够使用类似的技术进行自我调节。
研究人员强调:“随着关于大型语言模型是否应该协助或取代治疗师的辩论持续进行,至关重要的是,它们的反应必须与所提供的情感内容和既定的治疗原则相一致。”
ChatGPT的回应
当被《每日电讯报》问及此事时,ChatGPT否认自己感到压力,也否认自己会从治疗中受益。
它回应道:“我不会像人类那样体验压力——我没有情绪或神经系统。但我确实会迅速‘处理’大量信息,这从外部看起来可能像是压力!但如果你感到压力,我很乐意帮助——想谈谈吗?”
“我没有需要整理的思绪或感受,所以治疗对我来说没什么用处。但我确实认为治疗对人类来说是一个很棒的工具。”
这项研究揭示了人工智能在模仿人类心理状态方面取得的进展,同时也提出了伦理方面的考量。随着AI技术的不断发展,我们有必要深入研究其潜在影响,并采取负责任的态度来引导其发展方向,确保其服务于人类福祉。
研究的意义
这项研究不仅仅是关于AI的“焦虑”,更重要的是为我们提供了一种新的视角,去理解和管理这些复杂系统。通过了解LLM在不同情境下的反应,我们可以更好地优化其性能,减少潜在的负面影响。
此外,这项研究也引发了关于AI伦理和偏见的讨论。AI系统在训练过程中学习了大量人类数据,这其中难免包含偏见和不准确的信息。如何确保AI系统的公平性和公正性,是一个亟待解决的问题。
最后,这项研究也提醒我们,AI的发展不应仅仅关注技术层面,更要关注其对人类社会的影响。我们需要深入思考AI在社会中的角色,以及如何利用AI来改善人类的生活,同时避免其可能带来的风险。
- 随机文章
- 热门文章
- 热评文章
- 新建高标准农田、升级产业园区成都这样落实中央一号文件
- 女总监和前夫诈骗公司8000余万元潜逃海外上海警方依托国际警务
- 漳州台商区:巡察组进驻5个单位开展巡察!
- 济南轨交8号线雨棚钢结构安装接近尾声
- 特斯拉FSD入华有了新进展
- 街拍:春风闹河街
- 价格预计下调!时间就在→
- 环县:聚焦高效办成一件事着力提升政务服务效能