更新我们的《模型规范》,全面融入青少年保护措施
在人工智能技术快速发展的背景下,如何在推动创新的同时,确保技术被安全、负责任地使用,已成为行业共同面对的重要议题。搏势科技始终认为,技术能力的边界,应当与社会责任的边界保持一致。
基于这一长期原则,搏势科技近期对内部《模型规范》进行了系统性更新,正式将青少年保护措施作为模型设计、训练、部署与运营中的重要组成部分,并融入到 AI 产品的全生命周期管理之中。
一、为什么要将青少年保护纳入模型规范
随着 AI 在健康管理、生活服务与内容交互等场景中的应用不断深化,模型所面对的用户群体更加多元,其中也不可避免地包含未成年人。
搏势科技的判断是:
当技术具备广泛影响力时,保护青少年不应是附加选项,而应成为系统的基础能力。
因此,本次模型规范更新并非一次被动调整,而是一次前置性的、结构性的升级。
二、模型规范更新的核心方向
在新的《模型规范》中,搏势科技围绕“可识别、可限制、可引导、可审计”四个方向,对青少年保护机制进行了明确要求。
1️⃣ 可识别:区分使用对象与风险等级
模型在交互过程中,将通过多重信号识别机制,对使用场景进行风险评估,区分:
普通成人使用场景
可能涉及未成年人的场景
高风险或敏感交互场景
在识别为潜在未成年人相关场景时,系统将自动切换至更高安全等级的模型策略。
2️⃣ 可限制:对不适宜内容与能力进行约束
在更新后的模型规范中,明确要求:
不向青少年提供不适宜其身心发展的内容
不生成具有诱导性、误导性或过度商业化的表达
不提供可能被误用的复杂决策建议或行为指引
模型将优先输出中性、审慎、引导性的信息表达,避免绝对化结论。
3️⃣ 可引导:强化正向价值与健康使用方式
搏势科技强调,青少年保护不仅是“防止风险”,更重要的是“提供正确引导”。
在相关场景中,模型将:
鼓励健康的生活方式与科学认知
引导用户寻求监护人或专业人士的帮助
*避免将 AI 塑造成权威或替代性决策者
AI 的角色被明确限定为辅助信息提供者,而非判断者或指挥者。
4️⃣ 可审计:全过程留痕与持续优化
新的模型规范要求,对涉及青少年保护的关键策略进行:
规则留痕
版本记录
风险回溯
通过内部审计与持续评估机制,不断优化模型表现,确保规范能够真正落地,而非停留在原则层面。
三、青少年保护如何贯穿 AI 产品全流程
本次规范更新,并不只停留在模型输出层面,而是覆盖了 AI 产品的完整链路:
- 模型设计阶段:引入风险分级与场景假设
- 数据治理阶段:避免不当样本影响模型行为
- 训练与评估阶段:加入青少年相关安全测试用例
- 上线与运营阶段:动态监测与策略更新
通过制度化流程,确保保护措施具备长期有效性。
四、搏势科技的长期立场
搏势科技始终坚持:
真正成熟的 AI,不只是更聪明,而是更克制。
在青少年保护问题上,我们选择将安全要求前置,将规范写入系统,而不是依赖事后纠偏。
未来,搏势科技也将持续根据行业发展、监管趋势与社会反馈,不断更新《模型规范》,让人工智能在创造价值的同时,始终运行在值得信任的边界之内。
结语
技术向前,责任同行。
这是搏势科技在 AI 时代做出的长期承诺。
作者:BOVS
日期:2026 年 1 月 1 日