签字画押之后,AI巨头们都承诺了些什么?
Meta刚刚公布新一代开源大语言模型Llama 2,之后没几天就和OpenAI、微软、谷歌、亚马逊等几家正致力于AI与大模型的业内巨头一起聚首白宫,而且还共同签订了一份《自愿承诺书》(Voluntary Commitments),就当前热议的AI技术及其开发的安全、透明、以及风险管控等事宜做出“八大承诺”。
《纽约时报》第一时间报道了相关新闻,表示《承诺书》更像是过去半年多来美国监管层对这些巨头们数次问询后的一次“成果展示”,落实到执行层面的可能性不大,更多的意义可能在于监管层表达对AI与大模型产业发展的关心,顺便表明政府的立场。科技巨头求监管,此时的舆论与风头真可说是一时无两。
1. 企业承诺在发布新系统或大模型前,先对其进行内外两道安全测试。现在没有一家企业会说在公布大模型前没有进行过安全测试,这种测试有时也被叫做“红队测试”。因此这个承诺并不新鲜,相关概念也很模糊,因为都没有提供有关需要进行何种安全测试或具体负责人的详细信息。随后白宫又发表声明称大模型的测试“将部分由独立专家进行”,并重点关注“生物安全和网络安全等AI风险高发区,及其更广泛的社会影响”。让AI巨头企业公开承诺继续进行此类测试并让测试过程更加透明,这的确是一个好想法。此外一些不易察觉的AI风险,例如将AI或大模型用于开发新武器,国家可能是比企业更好的评估人选。
2. 企业承诺在业内,以及与政府、学界和民间交流有关AI与大模型管理风险的信息。与第一条类似,这条承诺也有些模糊。有的企业的确乐意分享自己AI或大模型成果的信息,比如隔三差五的发篇学术论文,或者在自家的官方社交媒体渠道上发布信息。一些企业如OpenAI还发布了专门的文档,官方称其为“系统卡片”,内容就是他们为使大模型更安全而采取的努力步骤。但凡事无绝对,这些企业有时也会以安全为由而隐瞒信息。今年三月GPT-4上线时,OpenAI就没有透露其参数量级。之前GPT-3.5公布的是1750亿,因此外界猜测GPT-4应该有100万亿。虽然OpenAI的CEO奥尔特曼在第一时间驳斥这种说法“完全是胡说八道”,但他也没透露具体的量级究竟有多大。根据这一新的承诺,这些企业是否会被迫公开此类信息?果真如此是否会加速AI与大模型的军备竞赛?或许白宫更在意的是想要与企业间交换信息,不论是否会构成威胁,而非一款大模型究竟有多大的参数量级。
3. 企业承诺在网络安全和内部防护措施上加大投资,以保护专利以及未公布的模型权重。“模型权重”指的是赋予大模型运行能力的数学指令,保证自身安全没什么难以理解的。如果是竞争对手企业想要构建类GPT产品那么就必须窃取原版的模型权重,因此这条承诺是符合各家企业既得利益的。之所以有这条承诺是因为这一问题已经到了业内人尽皆知的地步,举个例子,之前Meta的LLaMA在公布几天后就被人将模型权重泄露在4chan等网站上。类似的事情过去有,现在有,以后也还会有,小心驶得万年船。
4. 企业承诺允许第三方发现和报告其产品系统中的漏洞。以目前的科技水平来说,完美无缺的产品只存在于理论中,一个大模型新品上线后总是用不了多久就被发现有问题,有的是黑客试图“越狱”,有的则是粉丝想验证非法功能,但不论哪种都有违企业开发大模型产品的初衷,这种行为甚至也是逾越道德或法律底线的。前一阵OpenAI启动一项奖励计划,旨在奖励那些发现ChatGPT缺陷的用户。或许白宫也是想延续这一精神,至于未来如何发展还有待观察。
5. 企业承诺开发强大的技术机制,以确保用户知道哪些内容何时由AI生成。这个想法在目前来看的确很有必要,同时也有很大的操作空间。虽然各家企业都在努力设计工具或机制让用户能区分人工与AI,但当人把AIGC冒充为自己的作品时这才是真正的问题。因此也不难理解三月的GPT-4上线后,最先研究的和最先禁用的都是高校,甚至可能是同一所高校里,教授们在积极研究,却禁止学生们随意使用。
6. 企业承诺公开报告其大模型的功能与局限性,以及可用和不可用领域。与前一条类似,听起来很美好同时操作空间很大。根据过去多少年来科研企业发展的经验,很多产品或功能的最终形态都可能远远超出最初的设想,那么现在大模型时代已经来临了,这种情况可能还会再出现不止一次,又有几家企业真的能坚定不移的恪守承诺呢?
7. 企业承诺优先研究AI和大模型可能带来的社会风险,包括避免有害的偏见与歧视,以及保护隐私。这种“优先考虑”基本都是模糊承诺,但这一承诺无疑会受到AI道德派的欢迎,这一群体最喜欢也最希望的就是这些AI与科技巨头们将预防偏见和歧视等已经披露出的问题作为优先事项,而不是像AI安全派那样担心AI或大模型会导致世界末日。有趣的是两派都认为对方的想法是无稽之谈,而真正研究AI和大模型的巨头也有自己的想法。
8. 企业承诺开发和部署先进的AI与大模型系统时,优先考虑帮助解决当前社会面临的问题,如应对气候变化与疾病治疗等。说来难以置信的,在AI与大模型的研究中,一些成果的最终样子与其出发点可能相差甚远,比如OpenAI用DOTA2训练GPT,期间还将“强化学习”的学习模式改为“基于人类反馈的强化学习”,即现在常说的RLHF。AI与大模型可能帮助我们解决一些问题,但同时也可能导致出现新问题,想要真正切实解决还很漫长。
这八条“签字画押”看下来,总体上说还是象征意义大于实质意义,其中几条目前已有企业在采取类似的预防措施,而且也没有什么可行的外部力量来约束他们遵守这些承诺。或许正如前面所说,白宫只是在表明自己的立场与态度,不过这都是合情合理的一步。