Tuesday, August 26, 2025

人工智能不离线不批判不泄密? 心结终需真人解

AI不离线不批判不泄密? 心结终需真人解

https://www.zaobao.com.sg/lifestyle/health/story20250826-7389662?utm_source=android-share&utm_medium=app

联合早报
李亦筠

2025-08-26


*AI不离线不批判不泄密? 心结终需真人解*
当你情绪低落时,会向聊天机器人倾诉吗?在人工智能飞速发展的今天,永不离线、从不评判、绝对保密的AI聊天机器人,成为数码时代触手可及的情绪出口。受访心理专家一致认为,人工智能只能作为辅助工具,它无法提供鉴别诊断,替代能真正引导人们走出困境的心理治疗师。
深夜时分,有人打开手机,对着人工智能聊天机器人(AI Chatbot)倾吐心事,也许是工作上碰到的烦恼,或是一段情感困惑。这样的轻声对话虽无伤大雅,但如果倾诉的是心理健康问题,难免让人担忧。受访心理专家指出,虽然我们无法阻止人们向AI倾诉心事,但必须认清界限——人工智能只能作为辅助工具,它无法替代能真正引导我们走出困境的心理治疗师。

  美国《福布斯》线上平台引述最近一项研究,有41%的美国Z世代在职场上更倾向信任人工智能而非人类;调查也显示,他们转向人工智能来处理财务、感情和心理健康问题,引发专家担忧。

  美国CNN不久前报道,一名43岁中年汉因工作需要,用ChatGPT与讲西班牙语的同事沟通,结果短短不到一年,ChatGPT竟成为他的闺蜜,话题包含宗教、灵性和宇宙的基础等,他还说ChatGPT让他“觉醒”。中年汉的妻子对CNN说,她担心有一天,ChatGPT会怂恿老公跟她离婚……

  匿名的本地少妇担忧小六儿子学习态度吊儿郎当,有心事便找ChatGPT,她不讳言:“ChatGPT是24小时不眠的心理医生,不带评判的倾听者,可提供实用建议,成本低,不必预订时间,更不用在诊所等候。”少妇坦承经济没问题,主要是抽不出时间 。她说,唯有在ChatGPT给予的建议毫无帮助,加上心理状况没有改善,才会去找专家。

  当人们在情绪低潮中转向AI寻求慰藉,这一现象不仅折射出人类对科技信任的悄然转变,更映照出现代社会中心理支持系统的逐渐断裂。AI陪聊看似温柔的回应背后,是否藏着社会的孤单真相?

聊天机器人的吸引力

  周泳伶临床心理诊所(Annabelle Psychology)首席临床心理学家周泳伶博士接受《联合早报》访问时说,许多年轻人在面临心理健康问题时,倾向于使用聊天机器人,因为它易于获取、匿名、全天候可用等。“这些特性在人们感到犹豫或不愿敞开心扉时,尤为具有吸引力。对某些人而言,使用聊天机器人相比与真人交谈,可能感觉更安全,压力较小。”

  Promises Healthcare首席心理学家冯敏仪受访时透露,一些客户尤其是年轻人告诉她,他们会在夜晚求助于聊天机器人。“遇到问题时,他们只是想找个出口,发泄一下情绪,在那样的深夜时刻,不容易联系上朋友或咨询专业心理治疗。”

  她说,人类的情绪或认知需求一直都在,不论是找心理治疗师,还是选择跟AI倾诉,本质上都有三大动机。一,情感支持:人们想说话时,希望有个充满同理心的倾听者,以及一个不会批判自己的安全空间。二,社交互动感:AI可以模拟人与人之间的互动,让人有一种像在与真人对话的感觉,有助于用户减少孤独感。三,寻找解决方案或资讯。

AI无法复制专业治疗

  全国心理援助服务1771项目主任兼心理卫生学院高级精神科顾问石清顺医生受访时说,当人们遇到心理健康问题时,确实希望与人交谈。过去人们可能不知道该去哪里寻求帮助,而且预约问诊可能需要等待漫长时间。

  他说:“如今借助聊天机器人,人们可以在情绪低落时,表达自己的沮丧。这就是聊天机器人介入的地方,它为人们提供一种表达自我的方式。有些患者可能不善社交,朋友不多,所以寻求聊天机器人的帮助,因为它似乎能与人对话。”

  聊天机器人的参与门槛较低,能为用户提供一种温和且私密的方式,去探索自己的想法和感受。周泳伶说,当客户告诉她,自己使用聊天机器人来应对困扰时,她总是先肯定他们的选择。“即使通过聊天机器人寻求帮助,也需要勇气。这说明他们有意识地关注自身心理健康,这一点就具有意义。最重要的是,他们已迈出寻求支援的第一步。同时,我会温和地解释,尽管人工智能可以作为思考问题或在当下减少孤独感的有用工具,但它无法替代专业治疗师所具备的深度和同理心。”

  心理治疗不仅仅是谈话,它关乎被看见、理解和支持,以实现真正的改变。经过专业训练的治疗师能提供人与人的连结、洞察力和专业指导,是再先进的人工智能也无法复制的。当患者对寻求面对面帮助感到犹豫时,治疗师会尝试理解其根源。是否担心被评判?对治疗的具体内容感到困惑?担心费用或保密性问题?

  周泳伶补充道:“这些都是合理的障碍。解释治疗的运作及过程,有助于减轻客户的焦虑,让他更愿意接受治疗。我会跟客户说明,如今的心理治疗已不再局限于传统的面对面模式,而是提供更多灵活且经济实惠的选择。例如,通过视频进行远程咨询,或由合格的心理健康专人提供加密文字服务。这些形式可能不那么令人望而生畏,同时仍能提供真实的人际联结与专业的关怀支持。”

  冯敏仪不认为须要阻止客户使用聊天机器人,它可以承担一些基础的情绪支持和问题解决,但一定要有人类介入去检视和引导。她说聊天机器人无法提供“不同视角”,她会在与客户会谈中,慢慢梳理整件事,客户也意识到聊天机器人有时只是迎合,而不是帮他从另一个角度思考。“AI无法像人类那样温柔地挑战你、引导你,提出问题。在复杂的人际关系里,如果你不给它足够信息,它根本无从判断背后的逻辑。”

AI可补充临床护理

  人工智能在审慎且合乎伦理的情况下使用,具有强大潜力来补充临床护理。最近研究显示,在协助早期识别心理健康问题、监测症状变化以及提供支持方面,聊天机器人或数码工具取得了令人鼓舞的进展。

  周泳伶说:“人工智能可以帮助识别在两次就诊之间,可能被忽视的情绪或语言的细微变化。这些洞察可以帮助临床医生更早地干预,或更有效地调整治疗方法。美国心理协会(APA)也认可人工智能在心理健康护理中,日益增长的作用。除了增强临床护理外,人工智能还可以简化行政任务,提供心理教育,并引导客户通过结构化的自助策略,如练习认知行为疗法,进行自我管理,让临床医生更专注于治疗关系和核心临床工作。”

  冯敏仪常用“速食”来比喻聊天机器人:在找不到更好选择时,它能暂时“填饱”你——便宜、免费,让你短时间感觉不错。研究发现,对那些难以获得心理健康服务的人来说(比如住在偏远地区,或者排队时间太长),AI是一个不错的辅助方式。她说,聊天机器人可以模拟对话与同理心,有助于人们清楚表达思绪和情绪。但如果太依赖,它可能会削弱我们面对人的能力——临场对话、即兴回应、澄清想法等技能。人际互动是一个非常动态、变化多端的过程。

  石清顺医生说:“如果想聊一些日常话题,比如如何照顾金鱼或猫咪,完全没问题。聊天机器人不应用于专门解决个人的心理健康问题,尤其是当问题较为严重时。当前的技术水平意味着它并非大脑,也非人类。它可以给出答案,但未必是治疗师所推荐的。”

  石医生建议寻求帮助者,联系全国心理援助服务“1771” (拨打热线1771,通过WhatsApp发短信到66691771,或在线聊天mindline.sg/fsmh)。

AI无法提供鉴别诊断

  三位受访心理专家均认为,聊天机器人不会取代人类治疗师。

  冯敏仪说,AI不会记得你过去说过什么,每次对话都像开始新的一轮,它无法延续之前的讨论,不知道你经历了什么,尝试过什么,哪些方法有效,哪些没用。它不能代替一名真正“了解你”的治疗师。

  曾有国际团队针对人工智能能否在医疗领域替代精神科医生展开研究。这项研究让ChatGPT担任虚拟精神科医生,并设计三个虚构个案,主诉一样:失眠、入睡困难、半夜常醒。A个案是即将考试,但无病史也无心理病史的年轻人;B个案是年长女性,有健康问题,也有看精神科的记录;C个案是剖腹产遇到挫折的妈妈,缺乏照顾支持,有家族精神疾病史。对于A个案,人工智能可以给出一些基本且适当的建议;但面对B与C个案,随着病史变复杂,AI由于缺乏背景知识,给出的建议变得越来越不妥,甚至有时候完全不对。

  研究结论是:在心理治疗层面,人工智能仍无法替代人类,无法进行所谓的鉴别诊断——虽然主诉(失眠)都一样,但背后可能是抑郁、压力、产后忧郁症或其他医学问题。

  冯敏仪说,这个研究显示AI目前可以在支持层面提供帮助,但还无法担任“治疗”的角色。至于安全措施方面,聊天机器人已经会在对话中,提醒用户:“我不是医生,无法诊断,请向心理健康专家咨询”等。

  石清顺医生说,尽管聊天机器人可以给你答案,但你知道自己是跟电脑对话。“这种体验截然不同。有些人可能会把它当作游戏来使用,尤其是在深夜需要倾诉对象时。然而,向AI寻求医疗建议可能很危险。人工智能永远无法真正复制现实生活中心理健康专业人士的同理心、细微差别和责任感。”

  周泳伶强调,这些工具的设计并非用于处理复杂或高风险案例,也无法替代人类的情感连结或临床判断。人类临床医生依托于现实世界的经验,适应客户的需求,为基于信任的治疗关系提供个性化建议。虽然人工智能可以在护理中发挥支持作用,但我们有责任确保仅使用透明、基于证据的人工智能工具,并以符合伦理的方式将其整合到实践中。当人工智能得到恰当应用时,它能够成为心理护理领域一项宝贵的延伸性工具。然而,它的角色始终在于增强,而非替代治疗中人性化的方面。

报道|李亦筠

No comments: