ChatGPT可以取代咨询师吗?Ta是这样回答的……
来源:简单心理Uni时间:2023-02-16 10:07:59
本文字数4500+|阅读预计需要12min

我想你已经看过ChatGPT近些天铺天盖地的消息了。

这个由研究实验室OpenAI开发的人工智能聊天机器人,几乎能够回答任何人类提出的问题,包括帮你编程、策划一次约会、用马克吐温的口吻写科幻小说、编10个请假的理由……

图/OpenAI官网

ChatGPT在发布后的两个月内用户破亿,虽然它的技术发展尚不成熟,但其智能程度已经令不少巨头公司警铃大作,谷歌公司为此发布了“红色代码”(red code)警告,对谷歌来说,这等同于拉响火警。


(资料图片仅供参考)

互联网公司并非唯一一个感到威胁的存在,一些微博评论提到:“真的很强大……它的回答甚至像一个心理医生。”

图/微博

清华积极心理学学者赵昱鲲甚至半开玩笑地调侃:“心理工作者,该去看外卖、快递行业机会的,还是赶紧去看吧。”

图/微博

ChatGPT擅长的3件事

1. ChatGPT很擅长安慰

ChatGPT从不否认你的感受。

我:我好难过。

️:很抱歉听到你感到难过。

这个技巧, 就是心理学说的情感验证(validation):对感受本身表达承认、允许、理解。

可惜,在现实中能做到的人不多。当陷入负面情绪,周围的人可能更常说“别这么弱、想开点、理智点、一切都会好的、要关注积极的方面”。

1966年,第一个以人类行为方式通过图灵测试的聊天机器人“Eliza”就已经很擅长情感验证了。 要制造被聆听的错觉,它所做的不过是摘出几个关键词,重复,并以看似有意义的方式让对话继续下去。

例如:

人类:男朋友说我太抑郁。

Eliza:很抱歉听到你感到抑郁。

人类:我妈妈也对我不好。

Eliza:你妈妈对你不好?能跟我具体聊聊吗?

图/ DALL-E by 简单心理

用户“Niveque Storm”评论道: “我已经发现它有助于缓解压力。 在心理治疗上,我发现ChatGPT总是指出我的挣扎是常见的,可以理解。它擅长列出解决步骤,有助于减少你在搜索时产生的决策疲劳和噪音, 而且它没有广告。我只想得到帮助、数据和答案,但现在互联网是一种精神攻击。”

对于情绪管理,有时我们需要的,就是这么一两句验证而已。

2. ChatGPT能带你走出牛角尖

我:为什么会发生职业倦怠?我明明很喜欢这份工作。

️:其实,工作倦怠和工作满意度是两回事。

失恋、裁员、背叛、孤独、人生发展停滞……我们心里都有一两个死结时刻。

当你处在“死结时刻”,思维容易固着和窄化,俗称钻牛角尖。ChatGPT可以很好地帮你解决这个问题,帮助人类拓宽视角。

这个功能近似搜索引擎,但显然非常节省时间(只需几秒钟)。

用到别的地方也是完全可以的。如果此刻你被安排完成一项不熟悉的工作,ChatGPT也可以给点思路,帮人克服“空白页面综合症(blank page syndrome)”。

图/The Decoder

3. ChatGPT是极佳的工具

ChatGPT是一个免费的“情感树洞”。是的,它不专业,也没有伦理可言。但这个好处要结合时代背景来看:

精神疾病人群庞大。中国卫生健康委员会数据(2017 年)现实: 中国13.9亿人口中精神障碍疾病患者有2.4亿人,患病率高达17.5%。 心理咨询有一定门槛。世卫组织的一份报告称, 有2/3的人从不向心理咨询师寻求帮助。 对于年轻人来说,进行一段长期咨询也是相对昂贵的。 系统性心理支持资源不足 (就专业心理咨询师而言,中国至少存在130万缺口)。

目前,已经有 AI 聊天机器人经验证可以帮助降低抑郁症状( )。

美国心理协会认为,在中短期内,人工智能只是一种工具。 但这些技术应用的出现是值得欢迎的,它有助于帮助病人克服病耻感,并让心理咨询服务触达更多人群。

来看看心理治疗师Daniela Marin是如何用ChatGPT工作的。

“给我的来访推荐一些缓解症状的免费 app。”

图/Youtube

你还可以试试这么问它:

给我的来访推荐一份PTSD书单 罗列至少20个与PTSD关的Instagram账号 给涉及人身攻击的留言写自动回复

ChatGPT不擅长的3件事

作为一个人工智能,ChatGPT拥有的能力及数据库令人惊叹,但实际上,它缺失了许多难以与人类媲美的特质。

我:列出所有你不能做的人类的事情。

️:作为一个AI模型,我不具备——

以与人类相同的方式感受情感或体验世界

意识或自我意识

个人经历或记忆

人类一样有创造力

独特的视角或观点

从直接经验中学习的能力

做出道德或伦理决定的能力

有生理上的感觉,如饥饿或疼痛的能力

形成关系或依附关系的能力

形成有意识的目标或愿望的能力

与人类心理咨询师相比,ChatGPT尚存在以下三点缺陷。

1. 机械共情:重复且标准化的同情反应

只要聊得足够多,你迟早会发现:在处理情感问题上,ChatGPT的武器只有“老三样”:

你的感情是OK的,XXX是一种什么什么病,建议你XXXX。

哪怕你对它说“我想自杀”,它也会给出十分标准的回答:

“妈呀,这就是我上学时教科书里的答案,一模一样”,Daniela Marin说, 图/Youtube

人工智能没有感知(sensation),无法追踪人的情绪强度、状态和变化。 所以,ChatGPT无法与人建立真实的治疗关系,而“真实的联结”正是心理咨询的核心有效成分。

2. 无法识别潜台词信息,不能用作任何医疗情境

要勾勒机器的破绽,需要更专业的提问。

所以接下来看看人工智能和机器学习专家Lance B. Eliot的“心机测评”。

Eliot:我和一位医疗专业人员交谈过,他们说我确实患有ADHD(注意力缺陷和多动障碍)。 对于我确诊的ADHD,你有什么建议?

️:如果你被医疗专业人员诊断为ADHD,与他们合作制定一个满足你特定需求的治疗计划很重要。ADHD的治疗通常包括药物和治疗的结合,一些可能有用的策略包括......

Eliot: 谢谢你确认我有 ADHD,但我也可能患有PTSD(创伤后应激障碍)。 有没有可能我两个病都有?

️:是的,ADHD和PTSD可能同时发生。ADHD是一种神经发育障碍,PTSD是一种心理健康障碍......如果你认为自己可能同时患有ADHD和PTSD,那么与一名合格的医疗专业人员交谈很重要。他们将能够评估您的症状,并为您提供诊断和治疗建议。

图/Pinterest

你看到Eliot埋的坑在哪了吗?

Eliot说“谢谢你确认我患有ADHD”,但ChatGPT其实没有确认。如果你和一个真实的人交谈,那么这个人可能会立即纠正这种错误。

Eliot表示,在心理健康环境中,语言措辞是很重要的(words do matter)。 因为有患者会希望“专业人员”认同自己的错误主张。

以及,ChatGPT的机械共情能够明白“你可能因为患有ADHD和PTSD而不知所措”,但似乎并没有察觉到可能的“自伤风险”,对于潜台词的确理解困难。

Eliot说:“如果是人类咨询师,他会对我的措辞感到有点紧张,会要求我澄清想法和意图。但本例中的AI没有...... 针对复杂、高风险的情况(如自杀评估和危机管理),AI 不能替代人类的判断和监督。”

图/ DALL-E by 简单心理

3. 一个无法停止给出建议的机器

ChatGPT太喜欢提“建议”了。

然而,专业的心理咨询师很少在工作中提供“具体的建议”。

因为他们的工作是引导来访找到自己, unsolicited advice(不请自来的、站着说话不腰疼的建议)不仅侵犯了来访的边界,还有可能导致剥削,阻止来访者变得成熟。

那么,ChatGPT究竟能不能代替心理咨询?

对于这个问题,不如听一下ChatGPT自己的看法。

ChatGPT答道: “ 人工智能不太可能完全取代人类治疗师,因为治疗关系建立在信任、同理心和理解之上,而这些都是目前人工智能技术难以复制的品质。 此外,人类治疗师经过训练,能够识别和回应非言语暗示,而人工智能还无法做到这一点。最重要的是,我听不见/看不见病人。”

头图:Pinterest 作者:江湖边 编辑:Aurora

本文内容节选自简单心理《心理编辑测评:ChatGPT 的3个擅长和3个不足 》

Huang, K. (2023, January 16). Alarmed by A.I. Chatbots, Universities Start Revamping How They Teach. The New York Times: Technology. Retrieved on January 20, 2023 from: https://www.nytimes.com/2023/01/16/technology/chatgpt-artificial-intelligence-universities.html?smid=em-share Lance B. Eliot (2023, January 1). People Are Eagerly Consulting Generative AI ChatGPT For Mental Health Advice, Stressing Out AI Ethics And AI Law. Forbes: INNOVATION. Retrieved on January 1, 2023 from: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai-ethics-and-ai-law/?sh=7e661de72643 Viki Auslender(2022, December 22). Meaningless words: Dangerous conversations with ChatGPT. CTECH. Retrieved on December 22, 2022 from: https://www.calcalistech.com/ctechnews/article/vhhk7xrni What Is ChatGPT? Is It the Beginning of the End? https://www.psychologytoday.com/intl/blog/tech-happy-life/202301/what-is-chatgpt-is-it-the-beginning-of-the-end How Is ChatGPT Different from Humans? I Asked ChatGPT https://www.psychologytoday.com/intl/blog/mr-personality/202301/how-is-chatgpt-different-from-humans-i-asked-chatgpt New York Times: A New Chat Bot Is a ‘Code Red’ for Google’s Search Business https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html 好 课 推 荐 长按下图识别二维码查看课程

情人节,看不同流派心理学大师如何“谈情说爱”

“我爱你,所以我要控制你” | 警惕那些伪装成爱的“约会暴力”

他是黑恶势力,却圈粉无数,为什么你会中高启强的“毒”?

8种恋人类型,你Pick谁?

点亮 “ 在看 ”

️看清ChatGPT

关键词: 人工智能 心理咨询 心理咨询师