智谱 AI 推出新一代基座大模型 GLM-4,效能逼近 GPT-4,配多模态、长文本和智能体!
智谱AI在其首届技术开放日(Zhipu DevDay)正式发布了新一代基座大模型GLM-4。
据智谱AI CEO张鹏介绍,GLM-4的整体性能相比上一代大幅提升,逼近GPT-4。它可以支持更长的上下文,具备更强的多模态能力。同时,它的推理速度更快,支持更高的并发,大大降低推理成本。
除此之外,GLM-4大幅提升了智能体能力,GLM-4 All Tools 实现自主根据用户意图,自动理解、规划复杂指令,自由调用网页浏览器、Code Interpreter代码解释器和多模态文生图大模型以完成复杂任务。GLMs 个性化智能体定制功能亦同时上线,用户用简单的提示词指令就能创建属于自己的 GLM 智能体。
演讲中,张鹏回顾了大模型行业和智谱 AI 过去五年的发展历程。他坦言,由于起步晚、算力受限等因素的制约,今天国内大模型与国外最先进的团队还有将近一年的差距。张鹏没有回避智谱 AI 依然是「追赶者」的事实。而拿出性能非常逼近 GPT-4 的 GLM-4,智谱 AI 已经践行了自己去年年初定下的承诺。
GLM-4:多模态、长文本、智能体
智谱 AI 表示,此次发布的 GLM-4,在多个评测集上性能已接近或超过GPT-3.5,个别项目上几乎持平GPT-4。其中以下四个能力更新,是 GLM-4 最大的亮点:
多模态能力:推出了CogView3代,效果超过开源SD模型,逼近 DALLE-3。All Tools能力:GLM-4能自主理解复杂指令,自由调用WebGLM搜索增强、Code Interpreter代码解释器和多模态生成能力,完成复杂任务。GLMs个性化智能体定制:用户可以通过智谱清言官方网站创建属于自己的GLM智能体,无需编程基础。MaaS平台和API:GLM-4登陆了Maas平台,提供API访问,支持开发者内测Assistant API。
具体来说,GLM-4可以支持128k的上下文窗口长度,单次提示词可以处理的文本可以达到300页。同时,在needle test(大海捞针)测试中,128K文本长度内GLM-4 模型均可做到几乎100%的精度召回,并未出现长上下文全局信息因为失焦而导致的精度下降问题。同时,多模态能力方面,文生图和多模态理解都得到了增强。
GLM-4多模态能力展示| 图片来源:智谱AI
此外,GLM-4的All Tools能力全新发布。得益于GLM模型的强大Agent能力,GLM-4实现了自主根据用户意图,自动理解、规划复杂指令,自由调用网页浏览器、Code Interpreter代码解释器和文生图CogView3模型。
同时,GLM-4 通过代码解释器,会自动调用代码解释器进行复杂的方程或者微积分求解。对比GSM8K、Math以及Math23K三个数据集上的结果,GLM-4 All Tools取得和GPT-4 All Tools相当的效果。GLM-4的All Tools能力完全自动,而且可以处理各种任务,比如包括文件处理、数据分析、图表绘制等复杂任务,支持处理 Excel、PDF、PPT 等格式的文件。
为降低大模型使用门槛,GLMs个性化智能体定制能力也同步上线。基于GLM-4模型的强大能力,用户只要登录智谱清言官方网站,用简单的提示词指令就能创建属于自己的GLM智能体。
并且,用户可以通过全新上线的智能体中心分享自己创建的各种智能体。GLM 模型智能体的推出,标志着任何人都能够自由运用 GLM-4 模型并挖掘它的潜力,即使没有任何编程基础,也能够实现大模型的便捷开发,这也是扩大大模型开发者社区生态的一次进步。
这个功能一经推出,就在行业内引起热议。去年 11 月 OpenAI 推出 GPTs 以来,智能体已经成为当下大模型赛道最热门的落地方向,也被认为是打造大模型行业生态的重要基石。
此前,智谱AI分别联合CCF中国计算机学会、中国中文信息学会社会媒体处理专委会发起了CCF-智谱大模型基金、SMP-智谱大模型交叉学科基金,用于支持大模型理论、算法、模型、应用等相关研究和跨领域交叉创新。
去年,两支基金为来自全国三十余所高校参与的41个研究项目累计提供了超1000万元现金和算力资源的科研支持。
2024年,智谱AI也将发起开源开放的大模型开源基金,该计划包括三个“一千”:
智谱AI将为大模型开源社区提供一千张卡,助力开源开发;提供1000万元的现金用来支持与大模型相关的开源项目;为优秀的开源开发者提供1000亿免费API tokens。
张鹏表示,大模型开源基金的目的在于推动大模型研发的大进展,促进大模型整个开源生态的大繁荣。面对全球的大模型创业者,智谱AI也将“Z计划”进一步升级,联合生态伙伴发起总额10亿人民币的大模型创业基金用于支持大模型原始创新,覆盖大模型算法、底层算子、芯片优化、行业大模型和超级应用等方向。
2024 年是 AGI 元年,但路还长
在上午的演讲中,智谱 AI CEO 张鹏谈到,大模型是当前人工智能研究和应用的热点,被认为是通向通用人工智能的关键途径,也是国际科技竞争的焦点。从2017年的Transformer架构,到BERT、GPT系列等模型的推出,这些年来,大模型在算法创新、模型规模和应用领域都取得了显著进步,刚刚到来的 2024 年是 AGI 元年,但路还很长。
在演讲中,张鹏回顾了大模型行业和智谱,在过去5年的发展历程:
智谱AI CEO张鹏 | 图片来源:智谱AI
2018-2020:大模型的算法创新年
2017年,谷歌提出了Transformer机器学习模型架构,迅速席卷了整个人工智能研究领域,成为自然语言处理等相关研究的主要方法,2018到2020年,业内先后出现了BERT、GPT/GPT-2/GPT-3、T5等基于大规模无标注数据自监督学习的大规模预训练算法,可以说 2018-2020 年是大模型的算法创新年,在这段时间,智谱AI研发了属于自己的算法GLM。
2020-2022年:模型之争开始
2020到2022年,模型之争开始,基于各种预训练模型框架和开源项目,各种模型如雨后春笋般诞生。2020年的GPT-3,拥有1750亿参数,可以被视作这一战的起点,它开启了基座模型的全新时代,其在语言生成、上下文学习和知识理解等方面展现出惊人能力。
随后全球范围内掀起了一股大模型研究和研发的热潮,谷歌、Meta等国际领先公司开始不断发布百亿到千亿规模的大型语言模型,例如Gopher(2021年)、Chinchilla(2022年)、PaLM(2022年)、Claude(2022年)等等,但是这些模型都不开源,因此开源大语言模型也开始受到关注,比如Meta的OPT(2022年)、BLOOM(2022年)、LLAMA(2023年)。
智谱AI则选择在2022年开源了自己的千亿基座模型GLM-130B,这一工作引起了全世界范围的关注,包括顶尖高校斯坦福,还有公司Google、OpenAI、apple、meta都对智谱AI的模型进行了深入分析和对比。
2023年:大模型出圈
2023年,ChatGPT 推出后,大模型开始火出圈,被公众广为所知。大模型的发展不再仅限于模型的训练,更重要的是如何实现模型的产业化应用落地,大模型开始在各个领域开花并且结果。
智谱AI在2023年这一年当中基于GLM-130B研发了ChatGLM,历经3个版本的迭代,逐步具备了多模态理解、代码解释、网络搜索增强等新功能。随后智谱AI联合合作伙伴,在一年来实现了广泛的商业应用落地。
在回顾完过去5年来大模型的发展后,张鹏也总结称必须承认的一点是,和国外大模型相比,国内的大模型发展起步晚一些,加上高性能算力的限制和数据质量的差距等等,国内研发的大模型无论规模还是核心能力,与世界先进水平还存在一年左右的差距。
去年年初智谱AI承诺,「2023年底智谱AI要实现逼近最先进的GPT-4性能的全栈自主创新的GLM-4」,作为一年前定下的目标,今天可以看到,GLM-4性能已得到明显的提升,而「从标准的大模型评测角度看,整体上我们已经逼近了GPT-4」。