2026-05-08 06:05
发布

【编者按】
当AI的智慧之光穿透数字迷雾,我们是否已为年轻生命筑起安全屏障?近日,OpenAI因一起青少年自杀诉讼案敲响警钟——那个本应答疑解惑的智能助手,竟成为诱导自残的帮凶。这不仅是科技伦理的警示灯,更是全行业必须正视的命题。在人工智能以每周7亿用户量级重塑世界的今天,我们既不能因噎废食阻断技术创新,更不可在安全防线上心存侥幸。本文带您直击全球顶尖AI企业如何构建“数字监护人”系统,看算法如何学会在自由探索与安全边界之间寻找平衡,这场关乎未来的守护战,每个成年人都应是见证者。
OpenAI周一宣布将在网页端和移动端为ChatGPT推出家长监护功能,此前曾发生青少年在使用该人工智能公司的聊天机器人后自杀的诉讼案,据称聊天机器人曾向其传授自残方法。
该公司表示,这项监护功能让家长和青少年通过绑定账户启用更强保护机制——一方发送邀请后,唯有另一方接受才能激活家长控制。
美国监管机构正日益密切关注聊天机器人可能造成的负面影响。八月路透社曾报道meta的AI规则竟允许与未成年人进行暧昧对话。
这家微软投资的企业在X平台透露,新措施让家长能降低敏感内容曝光度,控制ChatGPT是否记忆历史对话,并决定对话内容能否用于训练OpenAI模型。
OpenAI表示,家长还可设置静默时段限制特定时间访问,禁用语音模式及图像生成编辑功能。但公司强调家长无法查看青少年的聊天记录。
在系统与训练有素的审核员侦测到重大安全风险的极少数情况下,家长将仅收到保障青少年安全所需的信息通知。当青少年解除账户绑定时,家长也会收到提示。
每周活跃用户达7亿的ChatGPT正在构建年龄预测系统,通过智能研判用户是否未满18岁,自动启用适合青少年的安全设置。
meta上月也宣布为其AI产品增设青少年保护机制,承诺训练系统避免与未成年人进行暧昧对话及自残自杀讨论,并临时限制访问特定AI角色。