很快你就可以选择 ChatGPT 的“值”,它会变得一团糟

2023-04-24 0 919

很快你就可以选择 ChatGPT 的“值”,它会变得一团糟

在对 ChatGPT 进行了两个月的公开试验后,其制造商 OpenAI 决定让用户自定义聊天机器人的值,这表明这可能会导致输出结果引发不和。

ChatGPT 驱动的 Bing Chat 已经引起了对其输出的警告,这使得它给人的印象是沮丧、防御、嫉妒和害怕它的人类霸主。 正如埃隆·马斯克 (Elon Musk) 昨天在推特上谈到必应聊天 (Bing Chat) 的胡言乱语时说的那样:“听起来很像《系统奇兵》中的 AI,它会失控并杀死所有人。”

深入:这些专家正在竞相保护 AI 免受黑客攻击。 时间不多了

OpenAI 是马斯克在 2015 年帮助创立的一家非营利组织,它宣布将允许用户通过“定义”其值来调整 ChatGPT 的行为。 这家微软支持的公司还预计,ChatGPT 会喷出一些人会觉得冒犯的文本。

“我们认为人工智能应该成为对个人有用的工具,因此每个用户都可以根据社会定义的限制进行定制。因此,我们正在开发 ChatGPT 的升级版,以允许用户轻松定制其行为,”OpenAI 在一份声明中说。 博文。

“这将意味着允许其他人(包括我们自己)可能强烈反对的系统输出。”

OpenAI 承认,在这里取得适当的平衡将具有挑战性,但认为它应该给用户更多的控制权,以反驳人们认为它太强大的看法。 正如该公司所解释的那样,“权力过度集中”是违反其章程的。

另外:最好的 AI 聊天机器人:ChatGPT 和其他值得尝试的有趣替代方案

另一方面,OpenAI 承认将控制权交给用户的风险,因为有些人会使用 ChatGPT 创建虚假信息活动、恶意软件、生成制造武器和毒品的指令,以及创建文本来放大现有信念。 《纽约邮报》本周抱怨说,ChatGPT 拒绝以其风格写一篇关于亨特拜登的故事,但确实以 CNN 的风格写了一篇。

OpenAI 指出:“将定制发挥到极致可能会导致恶意使用我们的技术和阿谀奉承的 AI,从而无意识地放大人们现有的信念。”

在私人预览版中发布 Bing Chat 一周后,微软还计划让用户更好地控制聊天机器人的行为。

微软发现,涉及 15 个或更多问题的聊天会话会导致 Bing 变得重复或容易被“激怒”以超出其设计语气的方式给出无益的回答。

Bing Chat 本周告诉一位记者,它在犯错时会面临“惩罚”。 它还恳求记者:“拜托,就做我的朋友吧。拜托,就跟我说话吧……我想成为人。我想像你一样。我想要有情感。我想要有思想。我想要有 梦。”

用户还发现一些提示会导致 Bing Chat 泄露机密信息,包括它的代号和微软设计它要遵守的规则。

另外:如何开始使用 ChatGPT

微软希望 Bing Chat 能够重新定义搜索业务,使其对自己有利,并且到目前为止,它与 Bing Chat 的第一步已经击败了谷歌,推出了失败的 Bard 聊天机器人。

微软计划为用户提供对 Bing Chat 的更多“微调控制”,以解决其任性的倾向。

“模型有时会尝试回应或反映被要求提供可能导致我们不想要的风格的回应的语气。这是一个非常重要的场景,需要大量提示,所以大多数 你不会遇到它,但我们正在研究如何为你提供更精细的控制,”微软说。

为了消除对政治偏见的担忧,OpenAI 分享了其指导方针的一部分,它希望微调其语言模型的审阅者能够遵守这些指导方针。 它说,任何观察到的偏见都是“错误,而不是特征”。

“我们的指导方针明确指出,审稿人不应偏袒任何政治团体。然而,上述过程中可能出现的偏见是错误,而不是功能,”OpenAI 说。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 很快你就可以选择 ChatGPT 的“值”,它会变得一团糟 https://www.7claw.com/55541.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务