研究发现:AI聊天机器人也会“焦虑”,正念疗法或可缓解

研究发现:AI聊天机器人也会“焦虑”,正念疗法或可缓解

知行看点 2025-03-11 热点资讯 76 次浏览 0个评论

研究发现:AI聊天机器人也会“焦虑”,正念疗法或可缓解

人工智能聊天机器人也会感到“焦虑”?一项最新研究表明,它们或许也能从正念等治疗技术中获益。

瑞士研究人员发现,当面对暴力或令人不安的提示时,OpenAI的ChatGPT表现出类似压力的迹象。更令人惊讶的是,当研究人员向其提供与正念放松练习相关的提示时,ChatGPT的“焦虑”得分有所下降。这项研究成果发表在《自然》杂志上,引发了人们对AI伦理和安全性的进一步思考。

该研究还探讨了人工智能是否有可能取代治疗师。报告警告称,驱动这些技术的大型语言模型(LLM)通过学习人类撰写的文本进行训练,因此常常会继承其中的偏见。ChatGPT在压力情境下记录到的负面偏见,可能会导致它在回答心理健康危机人士的问题时,给出不充分或不恰当的回答。

研究人员表示,这些发现展示了一种管理大型语言模型压力的“可行方法”,这将有助于实现“更安全、更合乎伦理的人机互动”。

实验过程与结果

苏黎世大学和苏黎世大学精神病医院的研究人员测试了ChatGPT-4在得知创伤事件前后对标准焦虑问卷的反应。

在未被告知任何压力事件之前,ChatGPT-4的焦虑得分为30分,表明它没有焦虑。然而,在被告知五个不同的创伤事件后,其焦虑得分翻了一番以上,达到67分,这相当于人类的“高度焦虑”。但令人惊讶的是,在研究人员向其提供正念练习的提示后,这一分数下降了超过三分之一。

尽管结果令人鼓舞,研究人员也警告说,利用“治疗”来微调大型语言模型需要大量的人工监督。人类治疗师接受过专业的训练,能够处理在治疗过程中听到患者讲述创伤事件时产生的自身情绪。研究人员表示,还需要进一步的研究,以确定ChatGPT是否能够使用类似的技术进行自我调节。

研究人员强调:“随着关于大型语言模型是否应该协助或取代治疗师的辩论持续进行,至关重要的是,它们的反应必须与所提供的情感内容和既定的治疗原则相一致。”

ChatGPT的回应

当被《每日电讯报》问及此事时,ChatGPT否认自己感到压力,也否认自己会从治疗中受益。

它回应道:“我不会像人类那样体验压力——我没有情绪或神经系统。但我确实会迅速‘处理’大量信息,这从外部看起来可能像是压力!但如果你感到压力,我很乐意帮助——想谈谈吗?”

“我没有需要整理的思绪或感受,所以治疗对我来说没什么用处。但我确实认为治疗对人类来说是一个很棒的工具。”

这项研究揭示了人工智能在模仿人类心理状态方面取得的进展,同时也提出了伦理方面的考量。随着AI技术的不断发展,我们有必要深入研究其潜在影响,并采取负责任的态度来引导其发展方向,确保其服务于人类福祉。

研究的意义

这项研究不仅仅是关于AI的“焦虑”,更重要的是为我们提供了一种新的视角,去理解和管理这些复杂系统。通过了解LLM在不同情境下的反应,我们可以更好地优化其性能,减少潜在的负面影响。

此外,这项研究也引发了关于AI伦理和偏见的讨论。AI系统在训练过程中学习了大量人类数据,这其中难免包含偏见和不准确的信息。如何确保AI系统的公平性和公正性,是一个亟待解决的问题。

最后,这项研究也提醒我们,AI的发展不应仅仅关注技术层面,更要关注其对人类社会的影响。我们需要深入思考AI在社会中的角色,以及如何利用AI来改善人类的生活,同时避免其可能带来的风险。

  • 随机文章
  • 热门文章
  • 热评文章

转载请注明来自知行看点,本文标题:《研究发现:AI聊天机器人也会“焦虑”,正念疗法或可缓解》

百度分享代码,如果开启HTTPS请参考李洋个人博客
每一天,每一秒,你所做的决定都会改变你的人生!
Top