正文内容 评论(0

视频通话也不可信了 男子遭遇AI换脸骗局 7秒被骗30万
2023-07-11 22:27:15  出处:快科技 作者:随心 编辑:随心     评论(0)点击可以复制本篇文章的标题和链接

以前总说照片可能是假的,而视频是不能P的。现在随着AI技术的发展,视频也不能全信了。

今年5月,济南一男子就遭遇了“AI换脸”诈骗,视频通话7秒钟被骗30万!

据男子称,他在刷某短视频时遇到自家大哥,对方称有事找他帮忙,男子便添加了对方发来的QQ号。

在成功添加QQ好友后,对方直接给男子拨通了QQ的视频电话,他通过声音和相貌确定对方就是自家大哥。

随后,所谓“自家大哥”想请他帮忙转个款应急,男子将30万元转给了对方指定的账户,当对方继续要钱时才发觉上当,与家人联系得知自己果然被骗。

警方已经3名犯罪嫌疑人抓获,正在进一步侦查中。

警方提醒,多数假脸是使用睁眼照片合成,假脸极少,甚至不会眨眼,观察眨眼状态是判断一个视频真假的好方法。

视频通话也不可信了 男子遭遇AI换脸骗局 7秒被骗30万

【本文结束】如需转载请务必注明出处:快科技

责任编辑:随心

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#手机QQ#视频#诈骗

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...