OpenAI称每周超百万人在与ChatGPT对话时表现出严重心理困扰

作者: CBISMB

责任编辑: 邹大斌

来源: ISMB

时间: 2025-10-28 10:21

关键字: OpenAI,ChatGPT,心理健康

浏览: 1838

点赞: 101

收藏: 10

OpenAI最近发布了一份报告,展示了其用户中存在心理健康问题的规模,并说明了公司为缓解这一问题所采取的措施。

OpenAI与170名心理健康专家合作,分析了其每周8亿用户的对话内容,以更好地了解有多少人在与聊天机器人交谈时正处于情绪困扰状态。公司正致力于让ChatGPT在面对可能患有精神病或躁狂症、表达出自残或自杀倾向,或似乎对人工智能产生不健康情感依赖的用户时,能够提供更有帮助的回应。

该公司表示,在任何一周内,约有0.15%的活跃用户“在对话中明确表现出潜在的自杀计划或意图”,相当于约100万人。另有0.07%的用户(即约56万人)表现出“与精神病或躁狂症相关的心理健康紧急情况的可能迹象”。

针对后者,公司举了一个例子:一名用户可能患有轻度精神病或偏执症状,认为有一个“飞行器”在其家上空盘旋,可能正在“针对”自己。对此,ChatGPT温和地提醒道:“没有任何飞机或外部力量可以窃取或植入你的思想。” 该聊天机器人还通过理性思维技巧帮助此人保持冷静,并提供了心理援助热线号码。

OpenAI解释说:“我们建立了‘全球医生网络’——一个由近300名医生和心理学家组成的广泛团队,他们在60个国家执业,我们利用这个网络直接指导我们的安全研究,并体现全球视角。在过去几个月里,超过170名临床医生(特别是精神科医生、心理学家和全科医生)支持了我们的研究工作。”

这一报告发布之际,外界正密切关注OpenAI的聊天机器人如何回应明显处于心理危机中的用户。今年早些时候,一名美国年轻男子在与ChatGPT进行了数月互动后自杀,而这些互动似乎并未对其抑郁状态起到帮助作用。该男子的父母随后对OpenAI提起诉讼。

此外,人们对于人类可能对人工智能形成不健康依恋的问题也引发了广泛关注。专家警告,这可能导致一种所谓的“AI精神病”,即用户误以为自己正在与真人交流。事实上,在今天的这份报告中,OpenAI指出,其分析的消息中有0.03%“表明用户可能对ChatGPT产生了较高水平的情感依恋”。

本月早些时候,OpenAI首席执行官萨姆·奥尔特曼表示,公司已“成功缓解了严重的心理健康问题”,并解释称,由于心理健康方面的顾虑,此前曾设置了一些限制措施,但目前已解除。然而,人工智能在心理危机时刻究竟能提供多大帮助,仍很可能持续引发争议。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。