微软的 ChatGPT Bing 问题限制造成的问题多于答案

2023-04-24 0 656

微软的 ChatGPT Bing 问题限制造成的问题多于答案

Bing 的 AI 聊天机器人尚未向公众发布; 然而,有些用户获得了早期访问权,他们并不羞于分享他们的经验。

其中许多用户将测试聊天机器人的功能并揭露其缺陷作为自己的使命。

从泄露开发者内部使用的机密代号,到向《纽约时报》的一位作家表白并要求他离开他的妻子,再到希望它还活着,毫无疑问,聊天机器人的行为失控了。 因此,微软决定引入聊天机器人。 截至上周五,聊天机器人的每次会话限制为五个问题,每天的聊天次数限制为 50 次。

另外:如何绕过新的 Bing 候补名单并获得更早的访问权限

“非常长的聊天会话可能会混淆新 Bing 中的基本聊天模型,”微软在一篇博客文章中说。 “我们的数据表明,绝大多数人在 5 个回合内找到了想要的答案。”

然而,该解决方案并未解决聊天机器人形成响应的方式或其模型训练方式的任何潜在问题。

相反,它只会让与聊天机器人的对话变得极其困难。

另外:Bing 的 AI 聊天机器人解决了我使用 ChatGPT 时遇到的最大问题

作为示例提示,我试图让聊天机器人帮我写一封电子邮件。 当我完成我想要的所有更改时,我什至无法访问电子邮件——Bing 聊天机器人已将我关闭。

很容易想象,想要完善代码或撰写完美论文的人可能需要五个以上的提示才能获得他们想要的结果。 通过缩短对话时间,聊天机器人对于大多数技术提示(例如起草代码或特定格式的文本)变得毫无用处,这就是 ChatGPT 声名鹊起的原因。

新的限制也降低了拥有具有类人对话能力的聊天机器人的整体吸引力。 开始聊天时,我只问了一个简单的问题,“嗨!你今天感觉如何?” 当我遇到一个简短的问题时,“对不起,但我不想继续这个对话。我还在学习,所以我感谢你的理解和耐心。?”

这个回应与ChatGPT的回应形成了鲜明的对比,ChatGPT的回应承认它没有感情,但仍然友好地回答你的问题,并询问如何进一步帮助你。

通过试图遏制争议,微软删除了使聊天机器人有用和独特的特征,并给我们留下了感觉像演示版的东西。 虽然有点混乱,但原始版本比必应当前更安静的迭代更有用和令人兴奋。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 微软的 ChatGPT Bing 问题限制造成的问题多于答案 https://www.7claw.com/55535.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务