信息专员办公室 (ICO) 敦促企业在采用生成人工智能技术时优先考虑隐私问题。
根据最新研究,生成式人工智能有可能在未来十年内成为价值 1 万亿英镑的市场,为企业和社会带来巨大利益。 然而,ICO 强调组织需要意识到相关的隐私风险。
ICO 监管风险执行总监 Stephen Almond 强调了认识到生成式 AI 带来的机会同时了解潜在风险的重要性。
“企业看到生成式人工智能提供的机会是正确的,无论是为客户创造更好的服务还是降低服务成本。 但他们绝不能对隐私风险视而不见,”阿尔蒙德说。
“从一开始就花时间了解人工智能如何使用个人信息,降低你意识到的任何风险,然后自信地推出你的人工智能方法,它不会让客户或监管机构感到不安。”
生成式 AI 的工作原理是根据从可公开访问的来源(包括个人信息)收集的大量数据生成内容。 现有法律已经保护个人权利,包括隐私,这些法规扩展到新兴技术,如生成人工智能。
4 月,ICO 概述了使用或开发处理个人数据的生成人工智能的组织应该问自己的八个关键问题。 监管机构致力于对不遵守数据保护法的组织采取行动。
Almond 重申了 ICO 的立场,表示他们将评估企业在实施生成 AI 之前是否有效解决了隐私风险,如果滥用个人数据可能造成危害,将采取行动。 他强调,在推出生成式人工智能的过程中,企业绝不能忽视个人权利和自由面临的风险。
“在引入生成人工智能之前,我们将检查企业是否已经解决了隐私风险——并在可能因数据使用不当而对人们造成伤害的情况下采取行动。 没有理由在推出之前忽视人们权利和自由面临的风险,”Almond 解释道。
“企业需要向我们展示他们如何解决在他们的环境中发生的风险——即使底层技术是相同的。 例如,与性健康诊所相比,在电影院帮助顾客的人工智能支持的聊天功能提出了不同的问题。”
ICO 致力于支持英国企业开发和采用优先考虑隐私的新技术。
最近更新的 AI 和数据保护指南为生成 AI 的开发人员和用户提供了综合资源,为数据保护合规性提供了路线图。 此外,ICO 还提供了一个风险工具包,以帮助组织识别和减轻与生成 AI 相关的数据保护风险。
对于面临新的数据保护挑战的创新者,ICO 通过其监管沙盒和创新建议服务提供建议。 为了加强他们的支持,ICO 正在与数字监管合作论坛合作试行多机构咨询服务,旨在为多个监管机构向数字创新者提供全面的指导。
虽然生成式 AI 为企业提供了巨大的机会,但 ICO 强调需要在广泛采用之前解决隐私风险。 通过了解其影响、降低风险并遵守数据保护法,组织可以确保以负责任和合乎道德的方式实施生成人工智能技术。