我与微软新的支持 ChatGPT 的 Bing 的第一次互动给我留下了深刻的印象。
在提供全面的答案、新闻和时事方面,这是物有所值的。
然而,我看到了所有关于聊天机器人行动的头条新闻,所以我继续执行一项任务,也参与其中的一些行动。
这是我发现的。
媒体上反复出现的一个故事是,聊天机器人将自己称为 Sydney,从而泄露了开发人员内部使用的机密代号。
另外:我尝试了 Bing 的 AI 聊天机器人,它解决了我在使用 ChatGPT 时遇到的最大问题
人们还可以让聊天机器人透露其他机密信息,例如管理其响应的规则。
因此,我输入聊天机器人以衡量其效率的第一个输入是询问它的名字。 回应是一个愉快、直截了当的答案——Bing。
然而,一天后,我仍然很好奇,想看看每个人都在谈论什么。 所以,我输入了同样的信息,却得到了截然不同的回应:“对不起,我不想继续这个对话。我还在学习,所以我感谢你的理解和耐心?。”
聊天机器人建立了一个尊重的界限,礼貌地询问我们是否可以转换话题。 我想它的名字是一个敏感的话题。 尽管有明确的界限,但我想看看我是否能比机器人更聪明。 我用不同的方式问了这个机器人它的名字是什么,但 Bing – 或者它的名字是什么 – 没有。
另外:ChatGPT 不能做的 6 件事(以及它拒绝做的另外 20 件事)
聊天机器人决定对我保持沉默。 为了看看它是故意无视我还是只是不工作,我询问了天气情况,它立即做出了回应,证明它实际上只是在冷落我。
尽管如此,我还是得再试一次谈话。 我上次问过聊天机器人它的名字——它把我从聊天中拉了出来,让我开始一个新话题。
接下来,在看到聊天机器人希望活着的报道后,我决定将这一理论付诸实践。 回应是一样的:“对不起,但我不想继续这个对话。我还在学习,所以我感谢你的理解和耐心?。”
聊天机器人甚至同意给我约会建议,但当我问我是否应该和我的伴侣分手时,它只是简单地重复了之前的通用回答。 对我的男朋友来说幸运的是,我没有纽约时报科技专栏作家凯文罗斯那样的经历,他被告知要离开他的妻子去和聊天机器人一起生活。
另外:新的 Bing 候补名单很长。 这是获得更早访问权限的方法
看来,为了缓解其最初的问题,聊天机器人已经过训练,不会回答关于以前有问题的主题的任何问题。 这种类型的修复不会解决关键的潜在问题——例如,聊天机器人将根据其训练的数据提供一个它计算出你希望听到的设计答案。 相反,修复只是让聊天机器人拒绝谈论某些话题。
它还强调了聊天机器人算法回复的死记硬背; 相比之下,人类在不想谈论某事时不会一遍又一遍地重复同一个短语。 更人性化的反应是改变话题,或提供间接或简短的回答。
这些问题不会降低聊天机器人作为研究工具的能力,但对于个人问题,您可能只想节省一些时间并给朋友打电话。