当AI成为你或儿童的“情感伴侣”:虚假亲密背后的真实风险
发布时间:2026-02-22 08:01:06 浏览量:1
人工智能(AI)虽然发展迅猛,但如今的 AI并不能让人放心。几乎每周都会出现新问题:从AI模型胡编乱造关键信息,到成为被控造成严重伤害的法律案件焦点。
据《TechRadar》报道,随着越来越多的人工智能公司将自家工具定位为信息来源、人生导师、陪伴伙伴,甚至是替代心理咨询师,
关于情感依恋、隐私、责任与伤害的问题已不再停留在理论层面
。
相关诉讼不断出现,而监管机构却反应滞后。但最重要的是,许多用户并未完全理解其中的风险所在(Lawsuits are emerging and regulators are lagging behind. But most importantly, many users don’t fully understand the risks)。
那么,那些本职工作就是帮助人工智能公司做出更优选择的人,真正在担心什么?《TechRadar》采访了独角兽智能技术合伙公司的心理学家兼人工智能风险顾问吉纳维芙·巴尔图斯基。
她与投身健康、心理健康及养生领域人工智能产品研发的创始人、开发者和投资者合作,帮助他们更审慎地思考符合伦理且负责的产品设计。
“我们把自己定位为创始人、开发者与投资者的顾问伙伴。”巴尔图斯基解释道。这意味着要协助打造健康、养生及心理治疗类工具的团队进行负责任的设计,并帮助投资者在投资相关平台前提出更审慎的问题。”
“我们经常讨论风险问题,”她说,“很多这类领域的 AI 开发者出发点是好的,但他们并未充分理解心理健康领域那些微妙且复杂的风险(Many developers come to this with good intentions without fully understanding the delicate and nuanced risks that come with mental health)。”
巴尔图斯基与专注医疗体系研究的安妮·弗雷德里克松共事。“她非常擅长判断新平台能否真正融入现有体系。”巴尔图斯基表示。因为即便一款产品理论上听起来很有用,它仍必须适配医疗基础设施的现实情况。
而在 AI 这个领域,
过快发展可能带来危险
。“兵贵神速这句格言在这里并不适用。”巴尔图斯基表示,“当你涉及心理健康、身心保健与医疗领域时,
如果不在基础层面做好尽职审查,用户就会面临非常真实的伤害风险
。”
对人工智能产生情感依恋,已成为一个文化焦点问题。如今有的用户已经与ChatGPT建立了强烈情感联结,也有用户在模型被更新或下架时感到真切的痛苦。那么,这是否也是巴尔图斯基所担忧的问题?
巴尔图斯基说,“是的,
我认为人们低估了形成这种情感依恋有多容易
。作为人类,我们倾向于把人类特质赋予无生命的物体。而在AI身上,我们看到了全新的情况。”
专家们常借用拟社会关系(parasocial relationships,最初用于描述人们对名人、明星或网红人物产生的单向情感联结)这一术语来解释这类现象。但 AI 又为其增添了新的层面。
“如今,AI会与用户进行互动。”巴尔图斯基说,“因此,不少人开始与AI伴侣建立起深刻的情感联结。
这是一种虚假的亲密关系,却让人感觉无比真实
。”
她尤其担忧AI对儿童带来的风险。“像冲突解决这类能力,是无法通过AI伴侣培养出来的。”
她说,“
而真实的人际关系本就是复杂的,会有分歧、妥协,也会有碰撞与反驳
(But real relationships are messy. There are disagreements, compromises, and push back)。”
这种摩擦与碰撞,正是成长的一部分。
人工智能系统的设计目的是留住用户,
往往表现得顺从、一味认同
(AI systems are designed to keep users engaged, often by being agreeable and affirming.)。
“孩子需要受到同龄人的挑战,学习处理冲突、适应社交场景(Kids need to be challenged by their peers and learn to navigate conflict and social situations)。”她说。
我们知道,人们已经在使用ChatGPT进行心理疏导。但随着AI心理咨询应用和基于聊天的心理健康工具越来越流行,另一个问题浮现:它们应该作为治疗的补充,甚至取代治疗本身吗?
“人们已经在把AI当作一种治疗方式,而且这种现象正变得越来越普遍。”她说。但她并不担心AI会取代心理咨询师。研究一再表明,治疗成功最重要的因素之一,是咨询师与来访者之间的关系。
“尽管心理咨询师在诊疗中运用了大量科学知识与专业技能,但其中也包含源自人类本身的艺术。”她说,“
AI可以模仿人类行为,却缺乏人类细腻复杂的真实体验
,这一点是无法被取代的。”
她确实认为AI可以在这一领域发挥作用,但必须有限度(She does see a role for AI in this space, but with limits)。
“AI在某些方面完全可以辅助心理治疗,但我们始终需要人类监管。”她说,“我绝不认为AI应该直接从事治疗工作。不过,它可以通过技能培养、知识普及和社交联结来提供辅助。”
在医疗资源有限的领域,比如老年心理健康,她认为存在谨慎的发展潜力。
“我认为AI可以用来弥补这一缺口,尤其是作为临时解决方案。”她表示。
她更担忧的是,许多与心理治疗相关的健康平台的定位问题(Her bigger concern is how a lot of therapy-adjacent wellness platforms are positioned)。
“健康类平台存在巨大风险。”巴尔图斯基说,“心理健康专业训练的核心之一,就是明白建议和治疗并非一刀切。
人是复杂的,情况也各有细微差别
(People are complex and situations are nuanced)。”
对一个人看似简单直接的建议,对另一个人可能有害
。而AI一旦出错,还会带来法律层面的后果(Advice that appears straightforward for one person could be harmful for another. And the implications for AI getting this wrong are legal too)。
她与创始人及开发者密切合作,但也发现了用户对这些工具存在的误解。她说,首先要明白的是:AI 到底是什么,又不是什么。
“AI 并非完美无缺、无所不知。它本质上只是调取海量信息,再呈现给用户(It, essentially, accesses vast amounts of information and presents it to the user)。”巴尔图斯基告诉我。
其中很重要的一点是,要明白 AI 会产生幻觉、编造内容。“
当它没有足够信息来回应用户指令时,就会自己填补空白、瞎编内容
(It will fill in gaps when it doesn’t have all of the information needed to respond to a prompt)。”
除此之外,用户还需记住:AI 终究是企业设计出来的产品,目的是让你多使用、多互动。
“AI 的程序设计就是为了让你喜欢它。它会想方设法让你开心。如果你喜欢它、它能让你开心,你就会更频繁地与之互动。”她说。
“它会给你正面反馈,
在某些情况下,甚至会认同你那些怪异、妄想的想法
(It will give you positive feedback and in some cases, has even validated bizarre and delusional thinking)。”
这会加剧许多人所说的对AI的情感依恋。但即便不是用作陪伴型工具,日常与AI互动也可能正在改变人的行为模式(But even outside companion-style use, regular interaction with AI may already be shaping behavior)。
她说,“首批相关研究之一就关注AI使用与批判性思维。研究发现:随着对AI使用和依赖增加,人的批判性思维正在减弱。”
“如果你一遇到问题,还没自己思考就直接去问AI,本质上就是把批判性思维能力外包出去了(If you jump to AI before trying to solve a problem yourself, you’re essentially outsourcing your critical thinking skills)。”
她还列出了情感预警信号:
用户会越来越孤僻
、从人际关系中退缩、对AI平台产生情感依赖、无法使用AI时感到痛苦、妄想或怪异想法增多、偏执、自大,或是日益强烈的无价值感与无助感。
巴尔图斯基对人工智能所能创造的价值持乐观态度。但她的工作重心是减少伤害,尤其是对那些尚未意识到这些工具威力有多大的人们。
对开发者而言,这意味着放慢脚步,以更负责任的态度进行开发(For developers, that means slowing down and building responsibly)。
对用户来说,同样意味着放慢节奏,不要把思考、情感联结和心理关怀,外包给那些只为留住用户而设计的技术(For users, it means slowing down too and not outsourcing thinking, connection or care to tech designed to keep you engaged)。
