报告发现商业领袖对合乎道德、负责任地使用 AI 的兴趣令人吃惊

2023-06-13 0 956

报告发现商业领袖对合乎道德、负责任地使用 AI 的兴趣令人吃惊

FICO 和 Corinium 的一份新报告发现,许多公司正在整个业务中部署各种形式的人工智能,而很少考虑潜在问题的道德影响。

在过去十年中,公司使用人工智能的许多灾难性方式有数百个例子,从无法辨别深色皮肤面孔的面部识别系统到歧视非裔美国患者的医疗保健应用程序,再到法院使用的累犯计算器偏向于 某些种族。

尽管有这些例子,FICO 的 State of Responsible AI 报告显示,企业领导者几乎没有付出任何努力来确保他们使用的 AI 系统在广泛使用时既公平又安全。

该调查于 2 月和 3 月进行,汇集了金融服务行业 100 位专注于 AI 的领导者的见解,其中 20 位高管来自美国、拉丁美洲、欧洲、中东、非洲和亚太地区。

这些高管的职位从首席数据官到首席人工智能官不等,他们代表年收入超过 1 亿美元的企业,并被问及他们的公司如何确保以负责任和合乎道德的方式使用人工智能。

近 70% 的受访者无法解释具体的 AI 模型决策或预测是如何做出的,只有 35% 的受访者表示他们的组织努力以透明和负责任的方式使用 AI。

只有 22% 的受访者表示他们的组织有一个 AI 道德委员会,可以就他们使用的技术的公平性做出决定,而其他 78% 的人表示他们“没有足够的能力确保使用新的 AI 系统的道德影响。”

将近 80% 的人表示,他们很难让其他高级管理人员考虑或优先考虑符合道德的 AI 使用实践。 很少(如果有的话)高管真正了解与不公平、不道德或管理不善的 AI 使用相关的业务和声誉风险。

超过 65% 的人表示,他们的企业在确保所有 AI 项目都遵守任何法规方面存在“无效”的流程,近一半的人称这些流程“非常无效”。

尽管承认他们的企业在如何使用 AI 方面缺乏关注,但 77% 的人认为 AutoML 技术可能会被滥用,90% 的人认为模型监控的低效流程是 AI 采用的障碍。

据受访者称,虽然一些 IT 和合规员工确实对 AI 道德有所了解,但绝大多数股东对这个概念的理解很差。

缺乏对管理不善的 AI 后果的了解对企业采用 AI 的意愿影响不大,49% 的受访者表示去年投入 AI 项目的资源有所增加。

艾伦图灵研究所行为数据科学负责人 Ganna Pogrebna 在调查中表示:“目前,公司自行决定他们认为道德和不道德的事情,这是极其危险的。自我监管不起作用。”

绝大多数受访者表示,对于公司在部署符合道德标准的 AI 方面的责任,尤其是“可能影响人们生计或造成伤害或死亡”的 AI 方面,没有达成共识。

大多数受访者表示,除了简单的合规性之外,他们绝对没有责任确保他们使用的人工智能符合道德规范。

超过一半的受访者表示,用于数据收集和后端业务运营的人工智能必须符合基本的道德标准。 但当涉及“间接影响人们生计”的人工智能系统时,这一数字下降了一半以下。

根据调查受访者的说法,80% 的人正在努力创建确保 AI 得到适当使用所需的流程。

企业越来越多地向员工施加压力,要求他们快速部署人工智能系统,而不管人工智能的使用方式是否符合道德规范,78% 的受访者表示,他们在获得高管支持优先考虑人工智能道德规范和负责任的人工智能实践方面遇到了问题。

当被问及管理人工智能使用的标准和流程时,一半的受访者表示他们“确保全球可解释性”,而 38% 的人表示他们有数据偏差检测和缓解措施。

只有 6% 的受访者表示他们通过确保开发团队多样化来做到这一点。

那些负责道德人工智能的人面临着各种障碍,包括组织政治、数据质量差和缺乏数据标准化。

FICO CAO Scott Zoldi 在研究中说:“许多人不明白你的模型是不道德的,除非它在生产中被证明是合乎道德的。”

“仅仅说我建立了符合道德的模型然后我就放弃了它是不够的。我们今天缺少的是诚实和直率地谈论哪些算法更负责任和安全。”

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 报告发现商业领袖对合乎道德、负责任地使用 AI 的兴趣令人吃惊 https://www.7claw.com/57628.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务