《人工智能安全治理框架》2.0版
以回退到以前的版本。 6.1.11制定明确的测试规则和⽅法,包括⼈⼯测试、⾃动测试、混 合测试等,利⽤沙箱仿真等技术对模型进⾏充分测试和验证。⽤于商业化 ⽤途的研发者,应形成详细的测试报告,分析安全问题并提出改进⽅案。 6.1.12评估⼈⼯智能模型算法对外界⼲扰的容忍程度,以适⽤范围、 注意事项或使⽤禁忌的形式告知服务提供者和其他研发者。 6.1.13定期披露⼈⼯智能模型算法的审计与异常处置情况。 建⽴⼈⼯智能应⽤运⾏监测能⼒和安全事件应急预案, 设置其 关键指标的安全预警阈值, 能够及时发现安全事件, 并具备切换到⼈⼯或 传统系统等的能⼒。 定期开展应急演练, 并根据⾏业安全事件、 重要舆情 及监管变化,及时优化应急策略,应对不断变化的安全⻛险。 6.3.4 在⼈⼯智能⽣成内容内添加显式或隐式标识,做好⽣成合成内 容提⽰和溯源管理。 在政务信息公开、 司法取证等场景部署深度伪造检测0 魔豆 | 92 页 | 30.37 MB | 1 月前3
共 1 条
- 1