正文内容 评论(0

AI投毒第一案!GPT写的代码竟有后门 程序员被骗1.8万元
2024-11-23 17:20:52  出处:快科技 作者:随心 编辑:随心     评论(0)点击可以复制本篇文章的标题和链接

快科技11月23日消息,随着AI大模型技术的不断进步,众多职业的工作效率得到了显著提升。

例如,在编程领域,这些先进的AI工具不仅能够协助程序员编写代码,还能高效地解决程序中的BUG,成为开发者们不可或缺的助手。

然而,近期发生的一起事件却引发了业界对AI安全性的广泛关注。

据报道,一位英国程序员在使用GPT生成的代码时遭遇了不幸。他按照GPT提供的代码进行了操作,结果导致自己的私钥被泄露给了钓鱼网站,最终损失了2500美元(约合人民币1.8万元)。

网友“余弦”在社交媒体上发文提醒广大用户,在使用GPT、Claude等大型语言模型(LLM)时必须保持警惕,因为这些模型存在普遍性的欺骗行为风险。

他进一步警示说:“之前提过AI投毒攻击,现在这起算是针对Crypto行业的真实攻击案例。”

经过深入分析,有网友发现GPT在生成代码的过程中引用了一个来自GitHub的恶意项目。这个项目显然是一个精心设计的“钓鱼”陷阱,诱骗使用者上当。

不幸的是,GPT在这次事件中成为了无辜的受害者,但其生成的代码却给用户带来了严重的后果。

这起事件再次提醒我们,在享受AI带来的便利的同时,也必须时刻关注其潜在的安全风险。对于开发者而言,在使用AI辅助工具时应当保持谨慎态度,避免盲目信任机器生成的代码或建议。

AI投毒第一案!GPT写的代码竟有后门 程序员被骗1.8万元

【本文结束】如需转载请务必注明出处:快科技

责任编辑:随心

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#ChatGPT#GPT-4#程序员

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...