IDC资讯

质量为本、客户为根、勇于拼搏、务实创新

< 返回IDC资讯列表

防范 ChatGPT 安全风险的五大策略

发布时间:2023-06-22

ChatGPT已引发了人们的关注,并且在不久的将来可能会保持这类关注。OpenAI创建的这类大语言模型在推出后的一周内就突破了创纪录的1万用户,通过使用公然信息和用户表露的数据,对问题和陈说产生类似人类的回答。

虽然 ChatGPT 已成为通讯和同享信息的特殊平台,但承认随之而来的安全风险需要仔细斟酌相当重要。

在得意忘形并可能泄漏敏感信息之前,组织应更仔细地检查与 ChatGPT 相关的这些安全风险和注意事项:

摹拟和操纵:歹意行动者利用 ChatGPT 进行摹拟和操纵的可能性很大。这项技术允许攻击者创建高度逼真的假身份,他们可以用于邪恶目的,例如网络钓鱼、传播假新闻和社会工程攻击。

例如,歹意行动者可以利用该模型生成摹拟真实个人的聊天机器人和内容,这使得其他人难以辨别真实和虚假的互动。尽人皆知,ChatGPT 可以摹拟视障人士的行动以绕过 CAPTCHA 测试,这表明其响应是多么使人佩服。攻击者可以利用这些特点来攻击组织的员工,从而对其安全构成潜伏风险。

数据表露:ChatGPT 还会带来数据泄漏风险。此语言模型使用大量数据(包括敏感和机密信息)来增强其响应。但是,我们一定要承认,这些背规行动不但来自外部黑客。忽视的内部人员(例如不遵照安全标准的员工)也可能通过无意中泄漏源代码或其他业务信息来增加风险。如果未经授权的个人访问此数据,可能会致使各种情势的歹意活动,例如金融讹诈或身份盗用。另外,黑客可能会利用 ChatGPT 代码中的漏洞来操纵模型的响应或访问机密信息。 该平台中的一个编程缺点最近致使个人和财务数据的无意暴露。随着 ChatGPT 的受欢迎程度延续飙升,对其安全协议施加了进一步的压力,我们可以预期类似的数据泄漏实例。

问责和法律影响:ChatGPT还对其缺少透明度和问责制表示耽忧。鉴于模型在大量数据上进行训练,因此理解产生其响应的基础进程通常具有挑战性。这也会使检测偏见或确保模型不被用来轻视特定的个人或群体变得具有挑战性。因此,由于问责制是一个挑战,ChatGPT 极可能在未来成为与泄漏源代码或商业秘密相关的法律纠纷的主题。

从哪里开始在工作场所使用人工智能系统

随着人工智能 (AI) 工具在工作场所变得愈来愈普遍,它们具有明显的优势,例如提高效力、提高准确性和下降本钱。但是,与任何创新技术一样,它们也伴随着潜伏的风险和挑战,公司在评估员工使用这些工具时应斟酌这些风险和挑战。

以下是使用ChatGPT时要记住的五个要点:


  • 训练:员工一定要接受足够的培训才能有效地使用这些新工具。这应当包括技术培训,和有关怎么将其与其他公司政策和流程相结合的指点。

  • 数据隐私:由于人工智能工具需要访问大量数据,包括敏感信息,因此公司一定要确保员工了解如何安全地处理此类数据,并遵守数据隐私的最好实践。

  • 法规和合规性: 根据行业和处理的数据类型,公司可能一定要遵照有关使用人工智能工具的法律要求。因此,公司一定要确保其对 ChatGPT 的使用遵照所有适用的法律和法规。

  • 透明度:让员工了解 AI 工具的工作原理及其在组织内的使用。明确说明工具的运行方式、使用的数据和输出的使用方式。

  • 道德斟酌:人工智能工具的使用可以对个人和社会产生重大影响。公司需要斟酌使用这些工具的道德影响,并确保以负责任的方式使用它们。


虽然 ChatGPT 有可能完全改变世界,但它也带来了我们不能忽视的重大安全风险。为了确保安全和负责任地使用 ChatGPT,请实行安全协议并提高对基于 AI 的系统潜伏危险的认识。通过这样做,安全团队可以减轻这些风险,并帮助防范潜伏的安全漏洞。

TikTok千粉号购买平台:https://tiktokusername.com/