正文内容 评论(0)
今天刷手机,看到一条支付宝被罚款71.23亿的新闻,本能的点开信息来源,发现是央视新闻刚刚报道的。
于是查看了下这个新闻,结果发现,原来这个是去年的旧闻,它其实是去年7月7日的新闻。
这种拿去年、前年,甚至更久之前的旧闻充当新闻发布,我已经不止刷到一次了。
可怕的是,评论区的大部分人都没看出来,他们以为这就是新闻,就今天这条消息下有200多个评论,没有一个人反馈这是假新闻的。
另外,我再仔细查了下,这个假新闻竟然有一大堆作者在今年7月7日到今天8日(也就是这两天)一直在重复发布,他们有的是视频,有的是文章,有的是图片。
我猜这些作者可能就同一个工作室的,要么这些作者用了相同的AI工具,批量生产了这些内容。
这些工具很明显重复拉取过去火爆的新闻资讯,然后在相同的时间发布,以获取流量,得到社交平台的流量分成。
这种真的是太恶心了,纯属在浪费互联网资源。
2019年的一项调查发现,互联网42.8%的资讯都是假消息。
要知道生成式AI是在2022年才出现,现在互联网上假消息的比例已经远超想象了,真实有用的信息真的很难刷到。
我看外网有一些网站就是完全反AI的运营模式,他们寻找真正专业的人来深度写作,很多都是论文的原作者。
但是国内确实没有做的好的这类平台,不过像科普中国这些平台和社交媒体账号也是这种模式,只是文章都太浅了,对一些人来说可读性就较差(我猜是那些作者害怕承担出错的责任)。
总之,大家平时阅读资讯,还是要多加独立思考才行。如果看到似是而非的内容,先自行检索下,再做评论,或者让子弹飞一会儿再评论。