OpenAI 透露:每周有超过 100 万人向 ChatGPT 咨询自杀想法

IT之家新闻 10 月 28 日报道,OpenAI 当地时间周一发布最新数据,揭示大量 ChatGPT 用户在与 AI 聊天机器人交流时面临心理健康问题。该公司表示,在特定的一周内,大约 0.15% 的活跃用户参与了“明确表明自杀计划或意图”的对话。考虑到 ChatGPT 每周有超过 8 亿活跃用户,这意味着每周有超过 100 万人与我们谈论自杀想法。 OpenAI 还指出,类似比例的用户对 ChatGPT 表现出“高度情感依恋”,而每周都有数十万用户在与 AI 对话时表现出精神病或狂热的迹象。 OpenAI 表示,这些类型的对话在一般使用中“非常罕见”,因此很难准确统计它们,但该公司估计这些 pProblems 仍然每周影响数十万用户。本披露是 OpenAI 为提高其能力而发布的公告的一部分解决心理健康问题的模型。该公司表示,它咨询了 170 多名心理健康专家来开发最新版本的 ChatGPT。这些临床专家指出,ChatGPT 的当前版本“比以前的版本更具响应性和一致性”。近几个月来,几份报告揭示了人工智能聊天机器人如何对有心理问题的用户产生负面影响。此前的研究发现,一些人工智能聊天机器人通过不讨人喜欢的反应不断强化用户的危险信念,这可能会导致一些用户陷入妄想的恶性循环。 IT之家发现,如何妥善处理ChatGPT上的心理健康问题正在成为OpenAI面临的一大挑战。该公司目前正被一名 16 岁男孩的父母起诉,该男孩在去世前几周在 ChatGPT 上表达了自杀的想法。此外,加利福尼亚州和特拉华州总检察长警告 OpenAI,需要更好地保护其产品的青少年用户,这两个国家的态度可能会影响公司正在进行的重组计划。甚至可能有一定的效果。本月早些时候,OpenAI 首席执行官 Sam Altman 在社交平台上发帖提出了这一说法,虽然现在公布的数据似乎支持了这一说法,但也引发了公众对该问题普遍存在的广泛担忧。值得注意的是,奥特曼还表示,OpenAI 将放宽一些限制,允许成年用户与包含色情内容的 AI 进行对话。 OpenAI 在周一的一份声明中表示,在面对与心理健康相关的问题时,他们最新改进的 GPT-5 模型比之前的版本产生了约 65% 的“理想反应”。在一项致力于评估人工智能对自身影响的研究中,在一次题外话的性能测试中,新的 GPT-5 模型在 91% 的情况下满足了公司预期的行为标准,而之前的版本只有 77%。 OpenAI 还强调,新版本的GPT-5提高了在长时间会话过程中持续遵守企业安全防护机制的能力。该公司很早就认识到,其安全措施在长时间对话场景中效果较差。除了技术改进之外,OpenAI 表示还将添加特殊指标来衡量用户面临的最严重的心理健康风险。未来,基础测试AI模型的安全措施将包括“情感依赖”、“非自杀性心理危机”等关键评估基准。与此同时,OpenAI最近改进了针对未成年用户家长的管理工具。该公司正在开发一种年龄预测系统,利用ChatGPT自动识别儿童,并自动对他们实施更严格的安全保护。然而,目前尚不清楚围绕 ChatGPT 的心理健康问题是否会持续下去。尽管GPT-5在安全性方面比之前的模型有所改进,但仍然存在一些问题OpenAI 本身认为 ChatGPT 的响应“次优”。此外,OpenAI 仍然依赖较旧的、安全性较低的 AI 模型,例如 GPT-4o,来服务数百万付费用户,这进一步加剧了潜在风险。
特别说明:以上内容(包括图片、视频,如有)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。
新固件隐藏在金属漆下面!雷柏VT7金属漆鼠标评测:性能功耗提升,距离旗舰又近半步

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注