正文内容 评论(0)
ChatGPT导致信息泄露后:三星将开发内部AI工具
快科技5月2日消息,早些时候,三星在引入ChatGPT不到20天内,就出现了3起与之相关的泄密事件。
近日,三星在内部备忘录中告知员工,暂时禁止使用ChatGPT或其他生成式人工智能,避免类似的情况出现。
内部备忘录显示,三星担心传输到谷歌Bard和微软Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。
同时,备忘录表示,三星进行了一项内部使用AI工具的调查,其中有高达65%的受访者认为此类服务存在安全风险。
值得一提的是,为了避免内部信息泄露,三星还计划开发自己的内部AI工具。
该AI将被用来翻译、总结文件和辅助软件开发,并协助研究如何阻止敏感公司信息上传至外部服务器。
此外,三星在备忘录中表示:“我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”
足以见得,三星在防范AI泄露信息方面的决心。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...