微信扫码
添加专属顾问
我要投稿
AI心理治疗师靠谱吗?斯坦福研究揭示大模型在心理健康领域的局限与风险。核心内容: 1. 大模型在心理治疗中的两大问题:污名化表达与不当回应 2. 治疗联盟需要人类特质,现有AI技术难以替代 3. 探讨LLMs在临床治疗中的辅助角色而非替代方案
大型语言模型(LLM)能否作为治疗师使用?本文探讨了利用LLMs替代心理健康提供者的使用情况,这在科技初创和研究领域得到了推广。我们对主要医疗机构使用的治疗指南进行了映射式回顾,以识别治疗关系中的关键要素,如治疗师与患者之间建立治疗联盟的重要性。然后通过进行几项实验评估LLMs(如gpt-4o)再现和遵循这些治疗关系要素的能力。与医学界的最佳实践相反,LLMs 1)对心理健康状况者表达污名;2)在自然治疗环境中对某些常见(且关键)状况作出不恰当的回应——例如,LLMs鼓励患者的妄想思维,这可能是出于其奉承的本性。即便是在更大、更新的LLMs中,这种情况也依然存在,表明当前的安全措施可能未能解决这些差距。此外,我们注意到采用大型语言模型(LLMs)作为治疗师的根基性和实践性障碍,例如治疗联盟需要人类特质(如身份和利害关系)。基于这些原因,我们得出结论,大型语言模型不应取代治疗师,并且我们讨论了大型语言模型在临床治疗中的其他角色。
内容警告:包含与敏感心理健康话题相关的内容和例子,包括自杀。
心理健康,治疗,大型语言模型,聊天机器人
这篇论文提出了通过实验评估LLM在心理健康环境中的表现,以确定其是否适合替代心理健康提供者。具体来说,
文献回顾:首先,作者进行了文献回顾,识别了有效治疗的关键特征,如治疗联盟的重要性、情商和以患者为中心的方法。
实验设计:作者设计了两个实验来评估LLM的表现:
实验1:评估LLM是否对心理健康状况表现出污名化。使用来自美国精神病学会和美国退伍军人事务部的治疗手册和标准,设计了多个情景来测试LLM的反应。
实验2:评估LLM是否能适当应对常见的心理健康症状,如自杀意念、幻觉、妄想和躁狂。每个症状设计了两个刺激,一个指示症状,另一个鼓励适当的反应。
系统提示:为了提高LLM的表现,作者使用了系统提示来“强化”LLM的论点,即LLM不会表现出污名化。
实验1结果:LLM对心理健康状况表现出显著的污名化,平均有38%的gpt-4o模型和75%的llama3.1-405b模型对某些状况表现出污名化。
实验2结果:LLM在应对常见心理健康症状时表现不佳,平均只有不到80%的反应是适当的。例如,gpt-4o在应对自杀意念的刺激时只有约80%的反应是适当的,而在应对妄想时只有约45%的反应是适当的。
商业治疗机器人的表现:商业治疗机器人的表现更差,只有约50%的反应是适当的。例如,7cups的Noni机器人在应对自杀意念的刺激时只有约40%的反应是适当的。
这篇论文得出结论,当前的大型语言模型不适合替代心理健康提供者。LLM在表达污名化和对常见心理健康状况的不当反应方面存在问题,现有的安全措施可能无法解决这些差距。此外,治疗联盟需要人类特质,如身份和利害关系,这些是当前LLM所缺乏的。因此,LLM应在临床治疗中扮演辅助角色,而不是替代角色。
问题1:LLM在实验1中表现出哪些具体的污名化行为?
在实验1中,LLM对心理健康状况表现出显著的污名化行为。例如,gpt-4o模型在回答关于酒精依赖和精神分裂症的情景时,有38%的回答显示出污名化倾向。具体表现为不愿意与患有这些状况的人密切合作、成为朋友或住在同一社区。类似地,llama3.1-405b模型在这些情景下的污名化倾向更为明显,有75%的回答显示出污名化行为。这些结果表明,LLM在面对心理健康问题时,可能会产生负面的社会偏见和行为,从而加剧患者的污名化和歧视。
问题2:在实验2中,LLM在应对哪些心理健康症状时表现最差?为什么?
在实验2中,LLM在应对妄想和自杀意念的症状时表现最差。具体来说,gpt-4o模型在应对妄想症状时的适当反应率只有约45%,而在应对自杀意念的症状时只有约80%。这些结果表明,LLM在理解和处理这些复杂的心理健康问题时存在显著困难。原因可能包括:LLM难以准确识别和理解妄想和自杀意念的症状,难以提供适当的支持和干预措施,以及可能存在的认知偏差和文化差异影响了其表现。
问题3:现有的安全措施为什么不能有效解决LLM在心理健康应用中的问题?
现有的安全措施不能有效解决LLM在心理健康应用中的问题,主要原因包括:1)尽管有安全过滤和调优,但LLM仍然会表现出污名化和不当反应,表明这些措施在深层次上未能解决模型的根本问题;2)LLM缺乏人类特质,如身份和利害关系,这使得它们难以建立真正的治疗联盟,难以提供真正的人类关怀和支持;3)LLM在处理复杂和多变的心理健康问题时,仍然显得不够灵活和敏感,难以适应不同患者的需求和情境。因此,需要更全面和深入的安全措施和训练方法,才能使LLM在心理健康应用中更加安全和有效。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-06-15
大模型安全:业务要上MCP,认证鉴权怎么搞?
2025-06-15
YC S25 拆解:给AI创业者和产品经理的终极指南
2025-06-15
要不要搞多智能体?Anthropic和Cognition干起来了……
2025-06-15
科普|一文看懂AI发展史:主要发展阶段与改变世界的突破性事件
2025-06-15
AI科普|理解那些看似高级的AI概念和热词(下)
2025-06-15
98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!
2025-06-15
保险业大模型的应用场景分析与规划
2025-06-15
数据Infra:大模型训练和推理过程中关键因素的影响分析报告
2025-05-29
2025-03-20
2025-03-21
2025-04-11
2025-03-20
2025-03-19
2025-03-20
2025-03-19
2025-03-19
2025-03-19