人工智能安全中心 (CAIS) 最近发表了一份由人工智能领域知名人士签署的声明,警告该技术对人类构成的潜在风险。
声明中写道:“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
声明的签署人包括著名研究人员和图灵奖获得者,如 Geoffery Hinton 和 Yoshua Bengio,以及 OpenAI 和 DeepMind 的高管,如 Sam Altman、Ilya Sutskever 和 Demis Hassabis。
CAIS 的这封信旨在引发关于与 AI 相关的各种紧迫风险的讨论,并在更广泛的行业引起了支持和批评。 此前,埃隆·马斯克、史蒂夫·沃兹尼亚克和其他 1,000 多名专家签署了另一封公开信,呼吁停止“失控”的人工智能开发。
尽管简短,但最新声明并未提供有关 AI 定义的具体细节,也未提供减轻风险的具体策略。 不过,CAIS 在一份新闻稿中澄清,其目标是建立保障措施和制度,以确保人工智能风险得到有效管理。
OpenAI 首席执行官 Sam Altman 一直积极与全球领导者接洽并倡导 AI 法规。 在最近一次参议院露面期间,奥特曼一再呼吁立法者严格监管该行业。 CAIS 的声明与他为提高人们对人工智能危险的认识所做的努力是一致的。
虽然这封公开信引起了关注,但一些人工智能伦理专家批评了发表此类声明的趋势。
机器学习研究科学家萨沙·卢乔尼 (Sasha Luccioni) 博士建议,将人工智能的假设风险与流行病和气候变化等有形风险一起提及可以提高其可信度,同时转移人们对偏见、法律挑战和同意等紧迫问题的注意力。
作家兼未来学家 Daniel Jeffries 认为,讨论 AI 风险已经成为一种身份游戏,个人可以在不承担任何实际成本的情况下加入潮流。
批评者认为,签署关于未来威胁的公开信可以让那些应对当前 AI 危害负责的人减轻他们的罪恶感,同时忽视与已经使用的 AI 技术相关的伦理问题。
然而,总部位于旧金山的非营利组织 CAIS 仍然专注于通过技术研究和宣传来降低人工智能带来的社会规模风险。 该组织由具有计算机科学背景并对人工智能安全有浓厚兴趣的专家共同创立。
虽然一些研究人员担心可能会超越人类能力并构成生存威胁的超级智能人工智能的出现,但其他人则认为,签署关于假设的世界末日场景的公开信会分散人们对围绕人工智能的现有道德困境的注意力。 他们强调需要解决当今人工智能带来的实际问题,例如监视、有偏见的算法和侵犯人权。
平衡人工智能的进步与负责任的实施和监管仍然是研究人员、政策制定者和行业领导者等人的一项重要任务。