2023-11-16 10:01

AI大模型风生水起,但是不是所有企业都适合自建大模型?

3.3万

原文来源:品玩

图片来源:由无界 AI生成

青春昂扬,创新不止。大模型技术的练兵场上,正如火如荼地进行着“千里马”选拔赛。

自9月7日正式启动以来,历经两个月的时间,第二届百度搜索创新大赛吸引了来自各大高校的数千名参赛者,大家初展拳脚,争相竞技展示,越来越多的团队正通过亮眼的成绩在初赛中脱颖而出,如约进入决赛开发阶段。

“这不只是一个比赛,更像是一个实践课,让我们在真实的环境中测试我们的想法和产品,从中获得反馈并学习如何改进,为我们未来从事AI行业积累了宝贵的经验,也让我们相信自己也有能力投身于AI技术的革新之中,可以在AI革命中扮演着重要的角色。”参赛者们由衷感叹。

广发英雄帖,吸引优秀人才,让参赛者们认识自己、了解行业、激发内在潜能,就是百度搜索创新大赛的初衷。而他们也不负众望,用实际行动诠释着未来,诠释着希望,一切都大有可为。


60天的精彩博弈,冲刺之战打响


如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,AI也正成为推动人类进入智能时代的决定性力量。而在AI发展新浪潮下,大语言模型这一新兴赛道则正创造出更多的可能性和创新性作品,为经济社会发展不断注入新动能。

面对AI新浪潮,越来越多的行业、企业、高校投入其中,但如何在茫茫人海中寻得优秀人才,以夯实行业发展底座,仍是较为迫切之事。毕竟,“千里马常有,而伯乐不常有”,而百度创新搜索大赛要做的就是AI界的“伯乐”。

9月7日,第二届百度创新搜索大赛正式启动。此次大赛以“新奇点 新搜索”为主题,设置五大赛道,广泛涵盖语义检索、多模态、软硬结合优化等丰富的技术方向,广发英雄帖,招揽AI优秀人才,号召参赛者“洞察用户在搜索场景的需求,并通过构建AI应用解决生态”。

自启动至今,来自行业、企业、高校等领域的参赛者们历经60天的精彩博弈,已完美度过百度搜索创新大赛初赛阶段,冲刺之争已然开启。而从赛事作品情况来看,已有较多的优秀作品脱颖而出,远超base分,尤其是大赛榜一分数相当突出。

激烈的竞争环境,你追我赶的竞赛氛围,参赛者们热情满满,斗志昂扬。各大参赛群里每天都在深入讨论着遇到的问题以及取得的战绩,查漏补缺,以求最大限度地展现自身的能力。

其中,值得关注的是,从目前排行榜的数据能够看到,高校团队数量远远高于企业和个人开发者。这也从另一个侧面反映了,高校当前对于AI领域的深入重视。而通过比赛结果也可以发现,来自高校的学生各方面能力都较为强劲,不单是在理论知识的深度方面,还在于对技术的实操能力方面。

能力的展示,需要的则是舞台,百度搜索创新大赛就是这样的存在。挖掘和培育搜索AI人才,促进业内交流、产教融合,推动产品、算法和技术应用创新。对参赛者们来说,百度搜索创新大赛的举办,不仅进一步促进了他们在理论和实操这块的深入结合,同时也在助力他们进一步加深对人工智能、检索技术的了解。

毕竟,想要在大赛中脱颖而出,也是需要一番苦心钻研的。据某参赛者介绍,他们团队在此次百度搜索创新大赛中,基于日常搜索梗图的需求,进行了用户调研和市场分析,结合AI多模态处理能力的发展趋势,提出了以对话形式模糊搜索梗图的解决方案,并绘制了网站原型。基于此创新结果,他们在激烈的初赛中脱颖而出。

“这个成果对我们来说,既是惊喜也是鼓励。”该参赛者表示,“虽然我们的项目尚有完善空间,但这次的成功让我们意识到,作为学生,我们也有能力投身于AI技术的革新之中。在这次比赛中涌现出众多像我们一样的高校团队,显示出百度对大学生探索和创新精神的高度认可和鼓励,也昭示了高校学生在AI革命中扮演着越来越重要的角色。”


置身其中的感受,有挑战,但更是机遇


结合理论实践,从技术和应用层面出发,来自各个领域的参赛者们在激烈的竞争中早已为自身树立起更远大的目标,构建起更为明确的发展规划。

一步一脚印,这是他们在亲身经历百度搜索创新大赛后的结果。“从参赛体验上来说,这场大赛考验了我们全方位的产品设计能力:我们不仅需要理解AI技术边界,还需要深入调研用户需求、用创新的解决方案加以满足,并确保这些解决方案能顺利运行、在推广后能吸引一定数量的线上用户,从而验证产品的实用性和市场接受度。”另外一位参赛者坦言,“这不只是一个比赛,更像是一个实践课,让我们在真实的环境中测试我们的想法和产品,从中获得反馈并学习如何改进,为我们未来从事AI行业积累了宝贵的经验。”

当然,从大赛中获取的经验只是一部分,在夜以继日地分析和研究中,参赛者们也真切意识到当前生成式AI、大模型应用等层面的现状与问题。

“结合我们的参赛作品,可以看到生成式技术能够在多轮对话中帮助用户从模糊的印象逐步明确得出搜索目标,不再需要多次猜测搜索关键词,也能准确找到想搜索的结果,甚至搜索引擎能够基于提问和问答上下文提供创造性的内容。这使‘搜索’不再是单一的信息检索和匹配,而是变成了发现新信息、新知识,甚至新创意的探索之旅。”上述参赛者表示,“但不可否认的是,生成模型技术本身还处于发展的早期阶段,因此当前的算法也都是基于特定场景和任务所设计的。比如,目前来看,生成式模型的潜力在于具有高度的适应性和创意表达能力,能够通过微调在多个垂直领域提供专业化、流畅的问答体验和创作辅助。但在技术层面上,获取和处理训练模型所需的大量数据依旧较为困难,并且模型生成的内容可能会涉及版权、隐私,还有传达误导信息的风险。”

基于这一现实情况,该参赛者表示,“如何链接模型的生成内容和专家矫正的、大众认可的信息,在优化搜索体验的同时保证搜索结果依旧具有准确性和可靠性,我认为是目前在搜索领域应用生成式技术的主要挑战,也是一种新的机遇。我们仍需继续加油。”

事实上,随着技术的发展,一些企业已经在通过自身优势去推动解决当前生成式AI应用所遇到的一系列问题。比如上述参赛者所提及的问题,NVIDIA英伟达便已有所动作。2007年 NVIDIA英伟达 推出了CUDA通用并行计算编程架构, 现已成为具备图形、HPC、AI、数据科学等广泛计算加速库的CUDA平台生态。 GPU具有比CPU更高的计算能力和更高的内存带宽,使用CUDA可以充分利用这些特性,从而加速计算任务。


立足市场的坚持,AI大生态已逐步构筑


创新总是伴随着问题而产生,技术在进步,科技企业也在持续发力探索。

在LLM(大语言模型)兴起之前,NVIDIA英伟达的CUDA平台已经可以很好的在GPU上优化搜索体验的同时保证搜索结果且依旧具有准确性和可靠性当大模型的表现一直受制于GPU的运算能力,硬件提供者和使用者都迫切希望提高推理速度、降低大模型运行成本时,NVIDIA英伟达又再度迈出关键一步,于今年10月19日重磅推出令人瞩目的大模型推理优化程序TensorRT-LLM。

TensorRT-LLM是一个专门用于编译和优化大语言模型推理的综合程序库,不仅整合了所有这些优化功能,同时还提供了一个直观的 Python API 来定义和构建新模型。TensorRT-LLM 开源程序库可加快 NVIDIA GPU 上最新大语言模型的推理性能,是 NVIDIA NeMo 中优化大语言模型推理的骨干力量。NeMo Framework 是一个用于构建和定制生成式 AI 应用并将其部署到生产中的端到端框架,为生成式 AI 的部署提供了完整的容器,如 TensorRT-LLM 和 NVIDIA Triton 等。

目前,TensorRT-LLM开源程序库已作为 NVIDIA NeMo Framework的一部分,在 /NVIDIA/TensorRT-LLM GitHub 资源库中免费提供。TensorRT-LLM 现在也可作为测试版本用于原生 Windows 系统。应用开发者和 AI 爱好者现可在本地运行由 NVIDIA RTX 和 NVIDIA GeForce RTX GPU 驱动的个人电脑和工作站上加速大语言模型。

能够看到,NVIDIA英伟达一直与市场保持着紧密的联系,始终关注着市场的一切需求与变化,并根据市场需求进行产品和战略调整。不论是CUDA,还是TensorRT-LLM,都是其中较为突出的典型。

全面发挥自身技术优势,不断推动AI加速计算创新和行业发展,助力开发者解决各式算法挑战,便是NVIDIA英伟达一直以来所致力探索的核心。近年来,NVIDIA英伟达已与国内外多家领先的大模型企业与团队开展密切合作,以加速和优化大语言模型推理。

放眼未来,随着更多对AI充满热情的企业、团队加入这场科技探索,不断将知识和创新思维注入技术发展之中,挖掘并满足更多尚未被现有技术解决的公众需求,我们势必将迎来更智能、更便捷的AI未来。

本文链接:https://www.aixinzhijie.com/article/6838620
转载请注明文章出处

评论
登录 账号发表你的看法,还没有账号?立即免费 注册
下载
分享
收藏
阅读
评论
点赞
上一篇
下一篇