谁在反ChatGPT?( 二 )


无论是个人、企业 , 还是国家层面 , 机密数据、文件隐私 , 都有可能在使用过程中被ChatGPT采集到 , 从而被大规模地扩散 。这些数据的泄露 , 也很有可能会对个人、企业 , 甚至是国家造成重大的损失 。
三星无疑是一个典型的“受害者” 。
据了解 , 今年3月三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT , 随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件 。
其中 , 员工A用ChatGPT帮自己查一段代码的bug;员工B想用ChatGPT帮自己优化一段代码;员工C想先用AI语音助手Naver Clova将自己的会议录音转成文字 , 再用ChatGPT帮他总结一下会议内容 , 做成摘要 。
前两起案件已分别导致三星公司的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中 , 这让三星很是担忧其数据将通过人工智能平台最终落入其他用户手中 。
不止三星 , 数据安全服务Cyberhaven曾检测到并阻止了其客户公司160万名员工中 , 4.2%的人将数据输入ChatGPT的请求 , 因为存在泄露机密信息、客户数据、源代码或监管信息的风险 。
Cyberhaven还发现 , 随着ChatGPT的应用率越来越高 , 给它上传企业数据的打工人数量也越来越多 。一天之内(3月14日) , 每10万名员工就平均给ChatGPT发送了5267次次企业数据 。

谁在反ChatGPT?

文章插图
来源:Cyberhaven
Cyberhaven数据显示 , 在员工直接发给ChatGPT的企业数据中 , 有11%都是敏感数据 。例如在一周内 , 10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码 。
和三星一样 , 所有“限用”ChatGPT的企业 , 无论处于什么领域 , 基本都是出于数据保护的考量 , 都非常担忧第三方软件访问敏感信息带来的风险 。毕竟ChatGPT所处理的数据通常具有多样性和复杂性 , 其数据的收集、存储、传输、处理等各个环节 , 都存在“合法性”问题 。
随着ChatGPT在自然语言处理领域的广泛应用 , 人们面临数据安全和隐私保护的挑战 , 正变得越来越巨大 。
机遇与风险并存技术发展史 , 也是人类的一部恐惧史 。
15世纪的德国学者面对刚刚发明的古腾堡印刷机非常担忧 , 认为这会让他们有永远也无法读完的文献 , 而他们的作品也不再稀缺 , 而且会导致大量抄写员失业 。
再到工业革命时期的“卢德运动” , 工人们拆除编织机的关键零件 , 袭击仓库 , 并威胁采取更多的暴力行动 。实际上这些操作机器的工人非常清楚设备的生产效率 , 他们采取行动并非针对机器 , 而是针对厂方降低工资、裁撤岗位和忽视生产安全的做法 。
新技术问世后总会有一段过渡期 , 这也是社会对它关注最密切的时期 。ChatGPT展现出的能力很强大 , 让很多企业开始积极拥抱 , 也让很多企业感到“害怕” 。
数据安全问题的确是不得不提防的一点 。越是大公司 , 或者越是有着数据安全和隐私枷锁的公司 , 越会谨慎地去对待类似的工具 。三星的做法算是“稳妥”的 , 毕竟大型企业除了内部数据 , 更重要的是掌握着很多客户数据 , 一旦发生了数据泄露事件 , 后果不堪设想 。
只是 , 有时候提防和运用并不冲突 。
如何才能既能拥抱机遇 , 又能化解风险?对于这些大企业们来说 , 目前似乎只有一条路可选 , 即研发出自己ChatGPT 。这样不仅解决了风险 , 还能提高企业员工的工作效率 。以三星来说 , 虽然“限用”ChatGPT , 但并没有完全禁止使用 。
为了避免内部信息泄露 , 三星计划开发自己的内部AI工具 , 供员工完成软件开发和翻译等工作 。此外 , 三星还向旗下所有的手机以及平板电脑产品推送了微软Bing AI更新 , 在这一更新完成后 , 三星用户可直接通过手机或者平板使用微软Bing AI 。
谁在反ChatGPT?


推荐阅读