ChatGPT 在网络安全方面的风险和回报

2023-06-18 0 480

ChatGPT 在网络安全方面的风险和回报

除非你在过去几个月里一直在某个没有互联网访问的偏远地区撤退,否则你很可能很清楚围绕着人工智能 (AI) 聊天机器人 ChatGPT 的炒作和恐惧有多少 由 OpenAI。 也许您已经看过有关学者和教师的文章,他们担心这会让作弊变得比以往任何时候都容易。 另一方面,您可能已经看到宣传 ChatGPT 所有潜在应用的文章。

或者,您可能已经被一些使用该工具的人的更深奥的例子逗乐了。 例如,一位用户用它编写了一份说明指南,用于按照 King James 圣经的风格从 VCR 中取出花生酱三明治。 另一个要求它写一首 Nick Cave 风格的歌曲; 这位歌手对结果不太感兴趣。

但在所有这些炒作和讨论中,人们对 ChatGPT 等人工智能工具在网络安全领域所带来的风险和回报几乎没有给予足够的重视。

了解 ChatGPT
为了更清楚地了解这些风险和回报是什么样的,重要的是要更好地了解 ChatGPT 是什么以及它的功能。

ChatGPT(最新版本 ChatGPT-4,于 2023 年 3 月 14 日发布)是美国公司 OpenAI 开发的更大系列人工智能工具的一部分。 虽然它的官方名称是聊天机器人,但这并不能完全涵盖它的多功能性。 使用监督学习和强化学习技术进行训练,它可以做的远远超过大多数聊天机器人。 作为其响应的一部分,它可以根据接受培训的所有信息生成内容。 该信息包括一般知识以及编程语言和代码。 因此,例如,它可以模拟整个聊天室; 玩井字游戏; 并模拟 ATM。

更重要的是,对于企业和其他大型组织而言,它可以通过更个性化、更准确的消息传递来帮助改善企业的客户服务。 它甚至可以编写和调试计算机程序。 其中一些和其他功能意味着它既可以成为网络安全盟友,也可以成为威胁。

教育、过滤和加强防御
从积极的方面来看,ChatGPT 有很多可说的。 它可以发挥的最有价值的作用之一也是最简单的作用之一:发现网络钓鱼。 组织可以在其员工中养成一种习惯,即他们使用 ChatGPT 来确定他们不确定的任何内容是否是网络钓鱼,或者这些内容是否出于恶意目的生成。

这很重要,因为尽管近年来取得了所有技术进步,但网络钓鱼等社会工程攻击仍然是最有效的网络犯罪形式之一。 事实上,研究表明,在 2022 年在英国成功发现的网络攻击中,83% 涉及某种形式的网络钓鱼。

当然,还有许多其他方式可以使用 ChatGPT 来加强网络安全工作。 例如,它可以为更多的初级安全人员提供一定程度的帮助,无论是沟通他们可能遇到的任何问题,还是帮助他们更好地理解他们在任何给定时间点的工作背景。 它还可以帮助资源不足的团队管理最新威胁并识别内部漏洞。

坏人也在用
但是,即使网络安全专业人士正在探索如何利用 ChatGPT 发挥自己的优势,网络犯罪分子也在探索。 例如,他们可能会利用其生成恶意代码的能力。 或者,他们可能会使用它来生成看似人为生成的内容,可能用于诱骗用户点击恶意链接,从而在不知不觉中导致危险后果。

有些人甚至使用 ChatGPT 在公司网站上令人信服地模仿合法的 AI 助手,在社会工程战线上开辟了一条新途径。 请记住,网络犯罪分子的成功在很大程度上取决于能够尽可能频繁和快速地瞄准尽可能多的漏洞。 像 ChatGPT 这样的人工智能工具允许他们通过本质上充当超级助手来帮助创建恶意活动所需的所有资产来做到这一点。

使用可用的工具
那么应该清楚的是,如果网络犯罪分子正在使用 ChatGPT 和其他人工智能工具来增强他们的攻击,您的安全团队也应该使用它们来加强您的网络安全工作。 幸运的是,您不必独自完成。

合适的安全提供商不仅会不断研究网络犯罪分子如何使用最新技术来增强他们的攻击,还会研究如何使用这些技术来改进威胁检测、预防和防御。 由于网络安全攻击可能对您的关键基础设施造成损害,因此他们也应该主动告知您。

聊天GPT-4
随着最新版本的 ChatGPT (ChatGPT-4),OpenAI 提供了最新和最强大的对话模型,还引入了更多控件以防止其滥用。 我们问 ChatGPT“什么可以防止恶意行为者恶意使用 ChatGPT”,答案如下:

“有几种措施可以防止恶意行为者恶意使用 ChatGPT:

1. 访问控制:ChatGPT 背后的组织 OpenAl 实施了访问控制,以限制谁可以访问他们的 API 和使用他们的技术。 通过限制访问,他们可以防止恶意行为者将他们的技术用于恶意目的。

2. 监控和检测:OpenAl 监控其技术的使用,以检测和防止恶意活动。 他们使用机器学习模型来识别可能表明潜在滥用的使用模式和异常。

3. 道德准则:OpenAl 发布了负责任地使用其技术的准则,其中概述了最佳实践和道德考虑因素。 通过遵循这些指南,用户可以确保他们以负责任和道德的方式使用该技术。

4. 用户教育:教育和意识有助于防止滥用技术。

OpenAl 提供资源和教育材料,以帮助用户了解其技术的能力和局限性,以及滥用的潜在风险。

5. 法律后果:将 chatGPT 等技术用于恶意目的会产生法律后果。 政府和执法机构制定了法律法规来惩罚使用技术从事非法活动的个人和组织。

总的来说,防止恶意行为者出于恶意使用 ChatGPT 需要结合技术控制、道德准则、用户教育和法律后果。 以负责任和合乎道德的方式使用 ChatGPT 等人工智能语言模型非常重要,以防止该技术被滥用于有害目的。”

因此,ChatGPT 继续列举了 OpenAI 为防止滥用而采取的所有措施。

OpenAI 在 ChatGPT-4 的发布博客中解释了该模型为何比其前身更安全:“我们花了 6 个月的时间使 GPT-4 更安全、更一致。 在我们的内部评估中,与 GPT-3.5 相比,GPT-4 响应不允许内容请求的可能性低 82%,产生事实响应的可能性高 40%”。

所有这些都表明正确的措施在不断改进以避免其被滥用,但众所周知,随着该模型被更广泛地使用和理解,坏人将继续寻找方法来克服这些限制。

 

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 ChatGPT 在网络安全方面的风险和回报 https://www.7claw.com/57871.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务