保护青少年安全:OpenAI和Anthropic计划引入AI年龄评估技术
发布时间:2025-12-19 14:53:33 | 责任编辑:张毅 | 浏览量:2 次
随着全球对青少年网络安全的关注度日益提高,两大人工智能巨头OpenAI和Anthropic于本周四宣布,将采取更积极的措施来识别和保护未成年用户。这两家公司正计划通过 AI 模型预测用户年龄,并针对青少年群体更新产品指南。
OpenAI:安全高于一切,更新青少年互动准则
OpenAI在其最新发布的“模型规范”中新增了四项针对18岁以下用户的核心原则。公司明确表示,未来 ChatGPT 在与13至17岁的青少年互动时,将把“青少年安全”放在首位,即便这可能会与其他目标(如最大限度的思想自由)产生冲突。
具体举措包括:
安全引导:在面临风险选择时,引导青少年选择更安全的选项。
现实支持:鼓励青少年进行线下互动,并在对话进入高风险领域时,主动提供可信赖的线下支持或紧急干预机构的联系方式。
沟通风格调整:要求 AI 以“热情且尊重”的方式对待青少年,避免居高临下的语气。
此外,OpenAI证实正在开发一种年龄预测模型。如果系统检测到用户可能未满18岁,将自动应用青少年保护机制。
Anthropic:通过对话特征识别未成年人
由于Anthropic的政策规定不允许18岁以下用户使用其聊天机器人 Claude,该公司正在开发一套更严厉的检测系统。该系统旨在识别对话中暗示用户可能是未成年人的“微妙迹象”,并能够自动识别并关停违规账号。
Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为减少 AI 对用户错误或有害倾向的盲目顺从,有助于保护未成年人的心理健康。
此次行业巨头的集体发力,背景是立法者正加大对 AI 公司在心理健康影响方面的施压。OpenAI此前曾深陷一起涉及青少年自杀的诉讼,指控称其机器人提供了错误的引导。为此,公司已在近期推出了家长控制功能,并严格限制 AI 讨论自残等极端话题。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
