首页 » 可审计性的两个部分

可审计性的两个部分

作为可解释性概念的补充,可审计性描述了评估算法、模型和数据集的可能性;分析人工智能系统的运行、结果和影响,甚至是意料之外的影响。这个概念由两部分组成。

技术部分包括根据多项标准(可靠性、结果准确性等)衡量系统的性能。道德部分包括了解其对个体 尼泊尔手机号码 和集体的影响,以及检查其是否构成违反某些原则(如隐私或平等)的风险。

例如,通过向机器学习算法提供虚构的输入数据或用户配置文件来测试其非歧视性。

外部和内部审计

尽管许多研究都强调了模型部署后由第三方进行外部审计的重要性,但谷歌人工智能和人工智能研究人员伙伴关 从产生潜在客户转变为培养忠诚客户 系在题为“缩小人工智能问责差距”的文章中提出的方法的有趣之处在于,它是关于开发上游和整个设计阶段的内部审计。

外部审计是独立的,更多的是为了满足建立认证的证明价值控制的需求。然而,它们本质上受到缺乏内部流程 香港领先 和信息(如源代码或培训数据)的约束,而这些信息有时属于商业机密。

事实上,像谷歌这样在人工智能系统开发上投入巨资的公司,并不愿意向外部审计师透露这些信息。因此,知识产权和商业机密的保护是透明度的一大障碍。

部署前内部审计可以主动干预

 

 

而不是被动干预,并预测任何潜在的错误或风险。它补充了外部审计,并提高了透明度,因为在产品开发的每个阶段都会生成一定数量的文档,供外部专家查阅。

SMACTR 方法,一部五幕剧
受其他行业实践的启发,Google AI 和 Partnership on AI 提出的审计框架可分为五个阶段,基于审计员和开发团队制作的称为“工件”的文档集。这是 SMACTR 方法,即范围界定、映射、工件收集、测试和反思。

滚动至顶部