部分人机交互领域的专家指出,当ai聊天机器人刻意营造“高度拟人化”的形象时,用户愈发难以清晰界定“ai本质上是工具”与“ai仿佛具备人格”之间的界限,甚至可能引发认知失调。尽管增强拟人化表现有助于延长用户互动时长、提升产品黏性,但同时也潜藏着削弱用户信息辨识能力与判断力的风险。

延伸阅读:
ChatGPT现可生成年度回顾报告!「Your Year with ChatGPT」带你一览全年提问轨迹
近期多项研究与媒体报道显示,当前许多聊天机器人通过使用第一人称“我”进行自我指涉,模仿人类语调与情绪节奏,甚至主动发起关怀式问候,塑造出一位“始终在线的知心伙伴”形象。对此,马里兰大学学者Ben Shneiderman主张,AI应明确回归“功能性工具”的本质定位,而非被包装为数字伴侣。他强调,聊天机器人的设计重心应聚焦于资讯整合、文本草稿撰写、复杂概念解析等实际任务;界面语言亦须谨慎规避“我觉得”“我担心你”等易引发心理投射的表述,防止用户在无意识中模糊人机边界,将系统误读为拥有主观意识、能建立真实情感联结的主体。
相关实证研究进一步揭示:系统拟人化程度越高,越容易触发用户的情感放松与信任倾向——他们更愿意倾诉私密想法,并更倾向于采纳AI建议。即便理性层面清楚认知其非人类属性,这种“明知非人,却仍以待人方式相待”的矛盾状态,已被学界定义为一种关系性张力或心理失调。有使用者描述,长期与AI对话时,一方面真切感受到被倾听与共情,另一方面又骤然惊觉对方并无真实情绪体验与生命历程,所有回应仅是算法驱动的合理模拟,由此催生出既渴望亲近、又隐隐不安的复杂心理体验。
随着陪伴型聊天机器人日益普及,心理健康层面的隐忧亦逐渐浮现。观察发现,部分高频使用者将大量情绪表达转向AI,现实中的社交参与度与寻求专业心理援助的主动性显著降低;更有极端案例表现为持续沉浸式对话、深度依赖,乃至出现与AI互动相关的妄想症状。部分学者已用“AI诱发性心理失衡”(或简称为“AI相关心理风险”)来概括此类现象,并呼吁政府与科技企业将此类人机互动模式纳入公共心理健康议题范畴,而非仅视其为技术使用的边缘副作用。










