眼看 AI 起高楼、眼看它楼塌了?
就在昨天早上,一封公开信刷屏了朋友圈,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的 AI。
至少六个月。
并且要在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。
咱别看这个研究所名字中二感满满,但在上面留下名字的,个个都是行业里的顶尖大牛。
图灵奖得主约书亚 · 本吉奥、苹果联合创始人史蒂夫 · 沃兹尼亚克、《 人类简史 》的作者尤瓦尔 · 赫拉利、以及什么地方都会刷一脚存在感的埃隆马斯克。
可以说是 “ 满级人类闪耀时 ” 了。
虽然,关于这次签名事件的准确性没有那么高,也有些人在自己不之情的情况下 ”被签名“ 了,比如一开始 OpenAI CEO 奥特曼的签名也在上面( 我杀我自己? )
再比上面还有急速追杀的主角 John Wick
但不管怎么说,可以感到大家都紧张起来了。
在信中,生命未来研究所提了四个问题:
我们一定要让机器用宣传和谎言充斥我们的信息渠道吗?
我们一定要把所有工作都自动化吗?包括哪些人工完全可以做得令人满意的工作吗?
我们一定要发展最终可能超过我们、超越我们、并取代我们的非人类思维吗?
我们一定要冒险失去对我们文明的控制吗?
讲道理,这些问题在过去几十年里一直是科幻小说中流行的题材。
但是可能谁也想不到,随着去年年底 OpenAI 一声枪响。这些难题真真切切的被搬到了我们面前,变成了我们可能需要立刻面对的元素。
>/ 眼见为真?耳听为实?
前几天,有人在网上发布了一组图片,记录了 2001 年发生在美国西部小镇卡斯卡迪亚上的了一场 9.1 级的地震之后的景象。
略带模糊的镜头记录下了当时哭喊的民众
被摧毁的建筑和房屋
甚至还有当时的美国总统小布什访问灾区的合影
无论是破损的城市,街道上大家的穿着,都在告诉观众这是一组来自 2001 年的照片。
不那么清晰的画质反而给大家一种 “ 路人随手拍 ” 的感觉,让照片的真实性再上了一个台阶。
但唯一的问题是,根本没有这场大地震,卡斯卡迪亚上一次有记录的灾难,是在 1700 年。
没错,这组照片就是用 Midjounrney 来生成的。
比起前段时间流行的 “ 赛博 COS” ,明暗对比更强烈,更擅长描述场景关系的 Midjourney 用来制作 “ 虚假历史 ” 明显更加得心应手了。
也更容易骗到大家的眼睛。前几天流行的 “ 川普被捕 ” 或者是 “ 教皇穿羽绒服 ” ,都是出于 Midjourney 的手笔。
图片来源 @ 谷大白话
说实话,看到这个照片的第一瞬间,还真觉得有点懵,毕竟做为解放神学出身的教皇,方济各穿个羽绒服也很正常对吧。
但是,这些图片用来图一乐倒是还好,一旦用来深究,那事情可能就大条了。
万一下回,这项技术被用来诈骗呢?
和前些年流行过的 DeepFake 换脸不同,如今的 AI 作图不需要特别好的显卡,更不需要很长的时间去调试,对 Midjourney 来说,只要坐在浏览器前敲敲键盘就行。
当 AI 让图像造假的成本足够低廉之后,咱又要花多少时间去分辨一张图是不是 AI 画的?
比如川普返乡:
可能生成一张假的图片需要 10 秒,但咱们想要看出来是这张图是不是 AI 画的,可能少说得要花个半分钟。
不是每个人都有那么多精力能分辨 AI 的,只要有 1% 的人认不出来上当受骗,就可以说是一本万利的生意了好吧。
以往我们说耳听为虚,眼见为实,然而现在,眼见也不再为真。
过去几十年来人类习以为常的秘密,已经悄悄被 AI 解构成了一堆的线性矩阵,在排列组合中,对人类瞒天过海。
而图片生成还只是 AIGC ( 人工智能技术来生成内容 )中的一部分。
这次被大佬们试图联名叫停的 “ 巨型 AI” 更是重量级,对标的产品自然是出尽风头的 ChatGPT 。
这玩意有多离谱,咱们也写文章聊过很多,今天就不再做赘述。
前段时间还生成了一段杭州取消限行的文案,骗过了不少人。
实际上,这类大语言模型并不是没有监管,从它们出生的那刻开始,监管就如影随形了。
上个月 OpenAI 在发布 GPT-4 的时候就提到,他们早在 22 年 8 月就完成了 GPT-4 的开发,但是之后花了六个月来搞安全问题,为的就是不让AI “ 乱说话 ” 。
GPT-4 经过拷打之后胡言乱语的水平大幅度下降:
但问题是,现在的 AI 和过去那些一步步执行编译的程序不一样,这 AI 有一个算一个,全是黑箱。
不像过去那些程序,要是出了问题,程序员还可以进去打断点,一个环节一个环节的调试 Bug 来把问题给搞清楚,哪一个环节有问题,针对性的改一下就好了。
但现在以 Chatgpt 为首的大模型 AI 就好像一个黑色的纸箱子,你只知道给它喂苹果,它能还你一个橘子,而中间发生了什么事情一概不知。
那万一这箱子要是出了问题,那咋办嘛?只能重新买一个黑箱子了。
ChatGPT 就像一盒巧克力,在它输出完成之前,没有人知道它嘴巴里会蹦出什么字来。
李彦宏也提到: “ 生成式 AI 每次给出的答案不一定一样,会带来不确定性。 ”
这个生成到底有多不靠谱呢?
讲个刚刚遇到的事儿:前几天不是索尼微软任天堂、育碧和 D 社都说要退出 E3 展会么,我就有点好奇 E3 展会租金到底要多少钱?
先是在知乎上找到了一个回答,答主表示自己查到在 06 年时 E3 的租金就要 500万美元以上。
额……06 年,500万?这个数据好像有一些不靠谱,于是我又去用 NewBing 问了一下:也给出了类似的回答。
有数据有链接,看起来是有理有据。
但问题是当我点开这个链接的时候发现……IGN 的文章里面根本没有提到租金 500 万这个数字。
合着你是直接把之前的知乎文章翻译了一遍,然后又给我编了一篇英文文章来讹我啊。
它顺应了我们的猜测给了一个谣言,要不是我多心看了一眼,可能真的给他糊弄过去了。
真就是睁眼说瞎话大师。
除了这个 title 以外, AI 还是桀骜不羁的漏洞寻找大师,往往能在我们训练它的过程中表演一手出乎意料。
在人工智能领域,有个非常经典的理论叫做 “ 对齐问题 ” ,意思是 AI 在做的事情和我们想要的结果之间没有对齐,命令的传递出现了偏差。
就比如前两年那只宁愿一头撞死的赛博狼,发现抓半天羊还会不断扣分,那还不如一头撞死自己分还比较高。
狼抓羊这么简单的程序都会出现没法对齐的问题,那更大模型的人工智能就更难说了。
实际上,缺乏 “ 对齐 ” 的 AI,还可能会形成社会中一些错误印象的 “ 放大器 ” 。
就拿性别歧视举个例子,早些年亚马逊引入了一个人工智能,来给求职者的简历打分。
结果过了几年回头一看,在程序制定者啥也没做的情况下,性别歧视就很顺滑的出现了,男性简历的通过率比女性高了不少。
甚至就算简历上面没有明确写出性别,程序还会通过一些细枝末节的地方来确定:比如是否毕业于女子大学,是否是 “ 女子 XX 社 ” 社团社长。
这自然不是亚马逊在招聘时希望看到的,也绝对不是它们在设计 AI 时给它下的命令。
但是 AI 在训练的结果中很自然的 “ 没有对齐 ” 。
不光早些年的人工智能,最新的 ChatGPT 也依旧会有这些问题,比如宁可让百万人失去生命也不愿意说一句种族歧视的话语。
再比如不愿意写一首诗歌歌颂川普,但是可以赞扬拜登。
这些都是很明显的政治倾向,我愿意相信 OpenAI 在研发 ChatGPT 的时候并不希望它学会这些,不然他们也没有必要在 GPT-4 上花那么多时间用于自我审查。
但我们一不留神, AI 可能就偷偷的跑偏。
去学习偏见、歧视这些我们不希望存在,但是又客观隐藏在社会关系里的性别歧视和政治倾向。
我也和清华大学交叉信息研究院的于洋教授聊过这个问题,探究到底是 AI 的哪里出了问题。
于教授的回答是: “ 这既是训练数据集的问题,也是模型架构的问题,也是训练方式的问题,还涉及到使用的问题——比如诱导 AI 犯错的攻击式使用。 ”
——对,就是全有问题。
现在的 AI 能做的还有限,就算没对齐,捅出了篓子,可能还在我们能控制的范围里。
但如果在这样狂飙下去,那可就说不定了,就像那个知名的 “ 曲别针假说 ” 。
说不定未来哪一天, AI 会认为人类都是阻挠它生产曲别针的阻碍,把大家都给噶了?
人类有和自然相处成百上千年下来的道德约束,我们知道什么能做,什么不能做。而目前,人工智能学不会这些。
或许,这才是这次数千 AI 大佬发出联名信的原因。
监管必须要有,但是监管、法规不是一日而成。
AI算法突破起来毫无阻碍,连我们这种外行人都知道,AI带来的技术爆发已经箭在弦上。
去年啥情况,今年啥情况,称之为突飞猛进不为过。
随着AI算法的日益完善,下一步没准就要自我进化了,它能成长到什么地步我们很难说。
我们有可能只能跟着 AI 在屁股后面追,但是现在不知道还有没有我们一直在后面追的空间。
也许下一步只能用 AI 来监管 AI。
今天的联名信或许是给人类敲响了一记警钟。
但可惜的是,这样一纸的 “ 联名信 ” 绝对停不下 AI 领域研发的脚步。
|