2023-04-06 04:53

ChatGPT 启示录系列丨谁卡住了中国 GPT 的“脖子”?

AIGC 发布在 AIGC
19.4万

作者 | 罗辑 程心

编辑 | 庄颜 排版 | 李帛锦

来源:自象限

回顾过去几次世界变革的历史会发现,每隔 100 年世界就会重新交换一次霸权。

只要是成为了霸主,他的技术等核心优势就会变得普世化,被其他国家和民族所掌握,从而被追平。如果霸主想“续命”,需要有一次根本的技术革命。英国靠着工业革命,续费了 100 年的霸业。

在 ChatGPT 出现之前,美国基本上已经走到 100 年霸主的末端,他的技术优势已经被更多国家掌握,甚至在互联网的某些领域,中国还曾出现反超之势。想要续命要再靠一场技术革命。以 ChatGPT 为代表的大模型开启的 AI 2.0 时代,很可能就是。

这是新一轮排位赛的开始。面临技术差距,中国大模型一边技术赶超,另一边也在走一条更“接地气”的路。

本文为自象限策划的「ChatGPT启示录」系列一部分。

图片来源:由无界 AI工具生成

“百度几乎将整个集团所有的 A100 都调给了文心一言。”

2 月份百度“冲刺”文心一言时,一位接近百度的人士对「自象限」描述了当时的激烈战况。

当然,在大模型训练上,不止百度“勒紧了腰带”。即使是微软,在 AI 大模型初始期算力上也并不宽裕。2023 年 3 月中旬,微软发文透露:曾斥资数亿美元,使用了数万个英伟达 A100 芯片帮助 OpenAI 组装了一台 AI 超级计算机。

两个现象表现了算力在 AI 大模型训练上的重要性,作为 AI 大模型的三要素的之一,在芯片发展受限的背景下,许多人将中国 AI 大模型的薄弱和短板粗暴归结于中国芯片的不足。

但实际上,芯片算力只是整个 AI 大模型的训练的一个起点,围绕着芯片的算力是一个巨大而复杂的系统。

除了不同芯片的架构和设计,还有建立在芯片之上的软件开发系统,和云的计算存储资源,以及围绕这两者工具和平台。

如果说 ChatGPT 这把火已经燎原,那算力,就是点燃它的火种。

但在热闹表象下面,算力正在成为生成式 AI 大模型发展最大的桎梏,这种桎梏表现在许多方面,从我们所熟知的芯片性能的不足,再到芯片开发操作系统的视野盲区,甚至是对云计算底层的重构,都成为了即将要攻克的关键问题。


“泛而不强”的中国芯片


面对中国算力短缺的问题,更多人是“知其然不知所以然”,本质是因为整个算力体系相当复杂,而芯片只是中间最重要的一部分。

通常来讲,我们说的算力包含三部分,即基础算力、智能算力和超算算力,而 AI 大模型主要依靠的是智能算力。

所谓智能算力,就是由 GPGPU、FPGA、ASIC 这样可以加速 AI 计算的芯片组成的服务器平台提供的算力,它们负责大模型的训练和推理。据 IDC 数据,2021 年中国人工智能服务器工作负载中,57.6% 的负载用于推理,42.4% 用于模型训练。

▲ 图源:信达证券研报

虽然可以提供的智能算力的芯片有三类,但 GPGPU 其实占了目前主流市场 90% 的份额,剩下的 10% 才是 FPGA、ASIC 之类的产品。

GPU 市场份额更大在于其通用化。

梳理中国算力的发展脉络,大致趋势可以以深度学习和大模型为节点划分为三个阶段,包括前深度学习时代,深度学习时代和大模型时代。2015 年,以 AlphaGo 为节点,算力进入大模型时代。

在大模型时代之前,人脸识别、语音识别还是 AI 的主要应用场景。这个阶段大多数训练就已经是基于 GPGPU 来实现的了,也因此 GPGPU 形成了目前最为成熟、完备的软件生态。由于其芯片特点,GPGPU 的通用性也更强,架构也更适合 AI 大模型的训练和部署。

而相应的,作为定制化和半定制化的 FPGA 和 ASIC,就只能应用在一些针对性的垂类领域。因此它们对模型的成熟度、对企业的模型研究深度都有更高的要求。

简单来讲,通用型的 GPGPU 适合刚入门的小白和资深大牛在内的所有人,而 FPGA 和 ASIC 作为定制款就只适合真正有经验的“玩家”。当然,通过这样的定制化之后,FPGA 和 ASIC 芯片的产品和解决方案也有更高的性价比。

在应用场景的基础上,芯片的应用在 AI 大模型的训练上又分为训练和推理两个具体的环节。目前能够运行大模型训练的只有 GPGPU,具有代表性的芯片就是英伟达的 A100、A800、H100、H800。

但这类芯片目前国内的储备并不多。据「财经十一人」报道,国内目前拥有超 1 万枚 GPU 的企业不超过 5 家,其中拥有 1 万枚英伟达 A100 芯片的最多只有一家。另有消息提到,目前腾讯、字节、百度英伟达 A100 的存量都不超过 2000 枚,阿里的存量大约能过万,而更多公司都只能采用英伟达的中低端性能产品。

事实上也是如此,自 A100 和 H100 被禁止之后,中国企业就已经将目光放到了它的替代品 A800 和 H800 上了。目前,国内几家头部互联网企业都向英伟达下了 1.5 万~1.6 万左右的 A800 和 H800 订单,涉及金额大概在十亿美金左右。

当然,国内其实也有自己的 AI 芯片,甚至在上一个国产芯片风口中起来的大多数有名有姓的企业做的都是应用在云端的 AI 芯片。

比如壁仞科技、燧原科技、天数智芯、寒武纪等等,都有自己的 GPU 产品,甚至部分产品的理论指标都不错。

比如寒武纪最好的产品思元 270,在硬件指标上大概就能接近英伟达的 A100,而且价格比 A100 还低,百度在训练文心一言时就小规模的部署了一些。

而之所以没有实现大规模部署,原因其实有两方面,一个是寒武纪的这款芯片智能运行大模型的推理部分,即它并不是一个通用的 GPU。而另一方面在于,寒武纪目前还不具备大规模部署的能力。

这种大规模部署的能力具体又分为两点,一个是其供应链是否能够支撑起芯片的大规模出货,毕竟一旦大规模部署,一个公司的需求就是上万枚。而另一个关键点在于,当大规模出货之后,寒武纪还需要为客户配备大量的人力配合开发,而寒武纪在这方面目前也有没大力推动的意愿。

而除了国内领先的半导体公司之外,国内芯片的整体水平还是比较低的,有业内资深专家表示:“目前国产芯片的性能整体在英伟达的 30% 左右。”

AI 大模型的训练要求芯片能够处理高颗粒度的信息。但目前国产 GPU 大多对信息处理的颗粒度不高,还不具备支撑大模型训练所需的能力。

另一方面,目前的国产 GPU 大多只能处理单精度的的浮点运算,比如壁仞科技 BR100、天数智芯的智铠 100,以及面提到的寒武纪思元 270 等等,它们在 FP32 的理论指标上做得不错,但没有处理 FP64 的能力。

目前从公开信息来看,国内唯一能支持 FP64 双精度浮点运算的只有海光推出的 DCU 深算一号,但它性能只有 A100 的 60% 左右。

▲ 图源:科创板日报

除了这些专业做芯片的半导体公司之外,国内的互联网大厂也几乎都有自己的 AI 芯片。

比如阿里在 2019 年发布的含光 800,百度在 2020 年发布的昆仑芯,腾讯在 2021 年发布的紫霄,以及华为的昇腾系列等等。

但这些大厂的 AI 芯片大多也都属于的定制版本,在应用上也面临诸多限制。

除了前面提到寒武纪的芯片只能用在推理之外,华为的昇腾通用性也很差,它只能应用在 MindSpore 这类华为自己的开发框架下,以及他们优化好的大模型上。任何公开的模型都必须经过华为的深度优化才能在华为的平台上运行。

当然华为也有自己的优势,即昇腾芯片涉及的所有 IP 都是买断的,不会存在技术被卡脖子的问题。同时华为围绕自己的 AI 大模型和芯片建立了一系列的算法和软件,实现了自己的闭环。

整体上,从芯片的角度国产算力的长征才刚刚开始,我们在部分细分领域实现了一定的程度的国产替代,但仍然无法实现更多环节存在性能不足和算力漏洞。

而随着大模型的发展越来越热,市场对算力的需求仍将呈指数级上升,国产芯片厂商既要解决算力问题,还要解决软件生态和工具的问题,难度可想而知,但市场留给我们时间却不多了。


云 for AI 有戏,AI for 云差千里


纵然“云智一体”已经成为了讨论的前提,在众多关于云与智能关系的论调中,无非是云计算巨大的存储和计算空间,能够帮助大模型训练大幅度降低成本。

但这却并不足以道出其中乾坤。

用一个形象的比喻,云与 AI 就像是新能源与自动驾驶的关系。传统燃油车的架构复杂,在智能化改造方面,并没有足够的空间去安装摄像头、激光雷达和芯片,只有在新能源车简化了发动机系统和整车架构的前提下,才使得自动驾驶硬件和软件有接入的空间,并以智能化为目标重塑整车结构。当下新能源与智能化如同一对双生子,同步向前迈进。

同理,在传统的存储和计算架构中,并没有那么强的弹性和空间,能够适应 AI 训练过程中的变化和应用,用传统服务器和存储结构训练大模型,简直是用诺基亚手机玩原神。而云计算的存在,既保证了快速响应、快速变化的空间,连接了底层硬件和上层应用,同时也给了大模型训练更强的算力支撑,可以说,没有云,就不会有大模型。

▲ 图源浙江证券股份有限公司

从 2012 年开始,中国以阿里云为“带头大哥”开始了一段云计算的征程。10 年过去了,在全球排名上,阿里云已经仅次于亚马逊 AWS 和微软 Azure,排在世界第三的位置,在基础设施的建设和算力准备上,可以说中美并没有拉开太大差距,这也是为什么,在《ChatGPT 启示录系列 | 万字长文解码全球 AI 大模型现状》一文中,我们强调中国在大模型上有一定的底气,而日本错过了云时代,也就错过了 AI。

但在多模态大模型和 AIGC 的进一步推动下,对云计算能力提出了新的要求。AIGC 需要多模态数据和强大的模型,包括不限于时序、文档、宽表、结构化、非结构化、图片数据等,还要将各类数据融合在一起,提供存储、使用能力和推理能力,这是中国云厂商将要面临的新挑战。

不过,云 for AI 解决的仍然是发电问题,AI for 云解决的才是发电效率的问题。前者的重点在于“车能不能跑起来”,而后者的重点在于“车能跑的多快”。

这来自于 AI 对云计算底层架构的改造。

以基础软件中,国内跑的最快的数据库为例。在阿里云瑶池数据库峰会上,李飞飞不断强调“智能化是未来云原生数据库发展的动力”。用智能化的技术接入数据库的运维,比如异常检测、HA 切换、参数调参等等。

异常检测场景的智能化可能要更为容易理解,假设该数据库存在 10 张表格,按列分布,非智能化数据库(包括传统数据库和云原生数据库)的检测模式,需要将这 10 张表逐列检测,最终定位故障点。而分布式则可以将 10 张表拆开同时检测,用一张表的时间跑完十张表,提高检测效率。但智能化数据库则可以通过引入 AI 能力,制定检测标准,精准定位、精准打击,将检测时间从 10 分钟缩短到几秒。

这不仅需要强大的 AI 能力,也是不断测试不断优化模型的结果,最终让云成为智能云。

带这个思考重新看“2019 年,微软 Azure 花 10 亿美元买断 OpenAI 成为其独家供应商”,就更加感叹纳德拉的老奸巨猾。一方面,Azure 成为 OpenAI 的独家供应商后,所有基于 ChatGPT 和 GPT4 的 MaaS(模型即服务)服务都长在 Azure 上,这将为 Azure 快速获得市场份额,甚至有反超 AWS 的可能。另一方面,OpenAI 通过 Azure 训练自己的 AI 大模型,也快速、高强度打磨了 Azure 的智能化能力,目前 Azure 是全球排名第一的智能云。

微软负责云计算和 AI 业务的执行副总裁斯科特・格思里(Scott Guthrie)在接受采访时说:“我们并没有为 OpenAI 定制任何东西,尽管其最初是定制的,但我们总是以一种泛化的方式构建它,这样任何想要训练大型语言模型的人都可以利用同样的改进技术。这真的帮助我们在更广泛的范围内成为更好的 AI 智能云。”

目前,微软已经在努力使 Azure 的 AI 功能变得更加强大,推出了新的虚拟机,使用英伟达的 H100 和 A100 Tensor Core GPU,以及 Quantum-2 InfiniBand 网络。微软表示,这将允许 OpenAI 和其他依赖 Azure 的公司训练更大、更复杂的 AI 模型。

反观国内智能云队伍,仅有百度智能云独自站在冷风里吆喝了几年,但在「自象限」看来,百度智能云离真正的智能云还相差甚远。百度云的“智能”在于通过云服务提供 AI 能力,比如推荐算法、人脸识别,但这只是服务内容的不同,换汤没换药。

不过从李彦宏近期的发言来看,似乎也想明白了“进化”的方向,但可以肯定的是,中国智能云的故事不会只有百度一家,阿里腾讯华为的动作也都在镁光灯下。

「自象限」根据公开信息了解到,4 月 11 日,阿里云峰会中阿里巴巴董事局兼主席张勇出席,或将在会上正式推出阿里大模型,接下来还有各类行业应用模型面世;4 月 18 日,在火山引擎原动力大会中,字节跳动副总裁、火山引擎业务负责人杨震原的出现,也让业内不少人士期待和推测,是否会发布字节跳动的大模型。

然而无论是技术驱动还是市场驱动,一方面在硬件算力上持续突破,另一方面在软件算力方向试图弯道超车,在算力长征路上,中国要补的课、要打的仗都还很多。

本文链接:https://www.aixinzhijie.com/article/6812328
转载请注明文章出处

评论
登录 账号发表你的看法,还没有账号?立即免费 注册
下载
分享
收藏
阅读
评论
点赞
上一篇
下一篇