将公司机密数据粘贴到ChatGPT中的风险

专家警告说,员工正在向流行的人工智能聊天机器人模型 ChatGPT 提供敏感的公司数据。

Cyber​​haven Labs的研究人员分析了各行业公司 160 万员工对ChatGPT的使用情况。他们报告说,5.6%的人在工作场所使用过它,4.9%的人自推出以来就向流行的聊天机器人模型提供了公司数据。ChatGPT使用此数据来构建其知识库,但它会公开共享基于此构建的信息。

ChatGPT的使用正在成为工作区中的一个严重问题,它可能会导致敏感和机密数据的泄露。出于这个原因,摩根大通和 Verizon等公司出于对机密数据的担忧而阻止访问聊天机器人。 

专家报告说,将公司数据粘贴到聊天机器人中造成的80%泄漏是由不到百分之一(0.9%)的员工造成的。随着该技术在多项服务中的集成,例如通过使用ChatGPT API,这一百分比在未来几个月内可能会迅速增加。

员工认为OpenAI开发的人工智能聊天机器人可以显着提高他们的工作效率。

专家们还警告说,企业安全软件无法监控员工对ChatGPT的使用情况,也无法防止敏感/机密公司数据的泄露。

“自从ChatGPT公开推出以来,5.6%的工作者至少尝试在工作场所使用过一次。此外,2.3%的员工将公司机密数据放入ChatGPT。”Cyber​​haven Labs发布的报告指出。“尽管越来越多的公司完全阻止访问ChatGPT,但使用量继续呈指数增长。3月1日,我们的产品检测到每100,000名员工有3,381次将公司数据粘贴到ChatGPT的尝试,这在下表中定义为“数据出口”事件。”

研究人员还监控员工从流行的聊天机器人中复制数据并将其粘贴到其他地方,例如公司电子邮件、谷歌文档或他们的源代码编辑器。他们注意到,员工从聊天机器人中复制数据的次数多于将公司数据粘贴到ChatGPT中的次数,比例接近 2 比 1。

研究人员指出,一般公司每周向ChatGPT泄露敏感数据数百次。例如,在2月26日至3月4日这一周内,平均拥有100,000名员工的公司的员工向基于AI的聊天机器人提供了199次机密文件、173次客户数据和159次源代码。

聊天GPT

我们不能妖魔化在工作场所使用流行平台,但是,必须传播对不当使用此类技术的风险的认识

让我以我对聊天机器人提出的这个问题作为结束:

向 ChatGPT 提供公司数据的风险有多大?

“作为一种大型语言模型,ChatGPT不具备存储或获取公司或个人数据的能力。这意味着使用ChatGPT讨论一般问题或提出与知识相关的问题不存在固有风险。

但是,如果您提供有关公司或个人的机密或敏感信息,则该信息可能容易受到与在线通信相关的潜在安全或隐私威胁。一般而言,在网上讨论敏感信息时尽职调查始终很重要。

总而言之,ChatGPT本身并不会对公司数据的安全构成威胁,但始终注意在线隐私和安全并仔细考虑您在聊天机器人平台上共享的信息类型始终很重要。”

本文来源于Lonely Blog -全球网络安全资讯平台, 转载请注明出处: https://blog.wuhao13.xin/4898.html

标签