新加坡的企业现在将能够利用治理测试框架和工具包来展示他们对人工智能 (AI) 的“客观和可验证”使用。 此举是政府通过技术和流程检查提高人工智能部署透明度的努力的一部分。
创造的 A.I. 确认一下,新工具包是由信息通信媒体发展局 (IMDA) 和个人数据保护委员会 (PDPC) 开发的,该委员会负责管理该国的《个人数据保护法》。
政府机构强调消费者需要知道人工智能系统是“公平、可解释和安全的”,因为越来越多的产品和服务嵌入了人工智能,以提供更个性化的用户体验或在没有人为干预的情况下做出决定。 他们还需要确保部署此类产品的组织是负责任和透明的。
新加坡已经发布了自愿性人工智能治理框架和指南,其模型人工智能治理框架目前处于第二版。
A.I Verify now 将允许市场参与者通过标准化测试向相关利益相关者证明他们部署了负责任的人工智能。 新工具包目前作为最小可行产品提供,它为早期采用者提供“刚好足够”的功能来测试并为进一步的产品开发提供反馈。
具体来说,它根据“公平性、可解释性和稳健性”三个原则进行技术测试,将常用的开源库打包到一个工具包中进行自我评估。 其中包括用于可解释性的 SHAP(SHapley Additive exPlanations)、用于对抗性鲁棒性的 Adversarial Robustness Toolkit,以及用于公平性测试的 AIF360 和 Fairlearn。
试点工具包还为开发人员、管理人员和业务合作伙伴生成报告,涵盖影响 AI 性能的关键领域,并根据其声称的功能测试 AI 模型。
例如,人工智能产品将接受模型如何做出决定以及预测的决定是否带有意外偏见的测试。 还可以评估人工智能系统的安全性和弹性。
该工具包目前适用于一些常见的 AI 模型,例如来自 scikit-learn、Tensorflow 和 XGBoost 等常见框架的二元分类和回归算法。
IMDA 补充说,测试框架和工具包将使 AI 系统开发人员能够进行自我测试,不仅可以保持产品的商业需求,还可以提供一个通用平台来展示这些测试结果。
而不是定义道德标准,A.I. Verify 旨在验证 AI 系统开发人员关于其 AI 使用及其 AI 产品性能的声明
然而,IMDA 强调,该工具包不能保证所测试的人工智能系统没有偏见或没有安全风险。
不过,新加坡政府机构表示,它可以促进人工智能治理框架的互操作性,并可以帮助组织填补此类框架和法规之间的差距。
它补充说,它正在与法规和标准组织合作,以绘制 A.I. 验证已建立的 AI 框架,以便企业可以在不同的全球市场提供 AI 支持的产品和服务。 美国商务部是新加坡正在与之合作的机构之一,以确保其人工智能治理框架之间的互操作性。
据 IMDA 称,已有 10 个组织对新工具包进行了测试并提供了反馈,其中包括谷歌、Meta、微软、新加坡航空公司和渣打银行。
IMDA 补充说,A.I. Verify 符合全球公认的 AI 伦理原则和指南,包括来自欧洲和经合组织的原则和指南,这些原则和指南涵盖了可重复性、稳健性、公平性以及社会和环境福祉等关键领域。 该框架还利用了由网络安全和数据治理等组成部分组成的测试和认证制度。
新加坡希望继续发展人工智能。 IMDA 表示,验证纳入国际人工智能治理标准和行业基准。 随着行业的贡献和反馈,还将逐步添加更多功能。
今年 2 月,这个亚洲国家还发布了一个软件工具包,以帮助金融机构确保他们负责任地使用人工智能,并发布了五份白皮书,以指导这些公司根据预定义的原则评估他们的部署。 行业监管机构新加坡金融管理局 (MAS) 表示,这些文件详细说明了将 FEAT 原则(公平、道德、问责制和透明度)纳入金融服务领域 AI 使用的方法。