正文内容 评论(0)
实测!AI诈骗生成露脸说话视频仅需数十元 声音也能克隆
近期,包头警方就公布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。此事引起网友热议,关于AI诈骗的话题,也不得不令人重视。
而据报道,当前使用AI诈骗的成本相当低,制作一套“露脸且说话”视频成本低至数十元,只需提供正面照就能生成视频,不仅眼睛、嘴巴、头会动,如果提供文字口型也能对上,一个晚上就能完工。
有商家称用照片生成一段1分钟时长的视频仅需30元左右。如果视频时间短,质量要求不高几块钱一段都可以。
其提供的宣传视频来看,AI生成的男子,不仅合成了真人语音,发声时的口型也能与其完全对应,如果用于诈骗活动,很难令屏幕面前的网友发现端倪。
对此,有律师表示,未经他人许可使用其肖像,即使不以营利为目的也侵犯肖像权。
此外,不法分子还能轻易获得诈骗受害者的个人声音信息,例如,通过盗取受害者好友的社交账号,就能从这里获取受害者的个人信息。或许之前的骚扰电话,也会暴露个人声音信息。
后续,不法分子通过AI软件合成拟真度极高的声音,甚至能通过文字输入与受害者进行语音聊天,此类新型诈骗方式,着实令人防不胜防。