百度为什么能做到?我国AIGC产业市场规模预测图-aigc导航|ai导航
百度为什么能做到?
百度发力大模型的更深层次原因,或许可以从行业现状和技术积累两个方面来解读。
首先是行业趋势。当下以大模型技术为代表的AIGC领域,已经开始从技术和应用两方面变革各行各业的生产方式,甚至带来突破性的效率提升。
根据量子位智库预测,AIGC市场规模会在2030年达到1.15万亿元,期间将经历培育摸索期、应用蓬勃期和整体加速期三个阶段。
△来源于量子位智库即使目前还在培育摸索期阶段,新玩家还在不断涌现,大模型头部领域的竞争却已经到了白热化阶段。
尤其行业中进展最快的技术玩家,已经开始有上层应用落地的趋势。
在国外,以OpenAI为例,根据SimilarWeb数据,ChatGPT仅2023年4月份,全球访问量就已经达到17.6亿次;至于与ChatGPT和GPT-3相关的应用,据GPT3demo统计已经超过800个,光是这两个月就增加了200多个。
在国内,百度也已经透露了大模型相关应用数据。文心一言开始企业内测之后,在与百度智能云接洽大模型业务的客户中,新客户比例已经超过老客户比例,有超过300+企业参与内测。
显然,当底层大模型技术达到稳定进入实际生产环节的水平,上层就会不断开发出真正有突破性质量的应用。
伴随着应用数量不断增加形成生态,最终将彻底在电商、内容、办公、交通等领域产生巨大的行业变革。
△来源于量子位智库营销客服行业,百度文心一言目前已经将智能客服的知识生产效率提升了9倍,多轮对话构建的成本下降65%,终端用户认为客服接近真人的比率也在上升。
城市交通行业,目前北京亦庄的300多个路口,全都部署了百度AI信控系统,通过智能调整红绿灯的时间,提升最高30%的交通效率,有效解决了北京堵车这一“历史性难题”。
但若仅仅从行业变革的速率和市场规模角度出发,还无法完全解释百度发力大模型的原因。
毕竟从打造大模型的算力、数据和算法等层面的难度来看,仅凭短期的技术自研,显然难以支撑“快速重构所有产品”这一做法。
因此,从自身实力来看,百度这些年在自研芯片、架构到AI算法等各方面的“技术基底”,恰恰又成为了发力这波大模型浪潮必备的关键因素。
具体来说,主要可以分为三个方面。
其一,是在AI技术、尤其是大模型技术上的长期投入和积累。
最早从2013年开始,百度就在布局AI相关的技术,累计十年下来已经投入超过1000亿元,其中核心研发投入多个季度占比超过20%;
巨量研发投入背后,是技术护城河的建立,截至2022年4月,百度全球AI专利申请已经超过2.2万件。
这样的技术积累,让百度如今在大模型研发必不可少的芯片、框架、模型和应用四层架构中,均实现了对应的自研技术积累。
芯片层上,百度自研芯片昆仑二代,已经量产并部署了几万片,而昆仑芯最新的第三代,则预计2024年初投入量产;
框架层上,百度从2016年就开源了飞桨深度学习框架,目前这一框架已经集成了深度学习核心训练和推理框架、基础模型库、端到端开发套件等工具组件,在中国市场份额中排行第一;
模型层上,文心一言背后的核心技术文心大模型,从2019年开始就已经发布1.0版本,并在后续研发中不断进行优化,目前已经迭代到3.5版本;
应用层上,百度除了研发了单独的十个行业大模型以外,在搜索、智能云、自动驾驶、小度等上面也已经积累了不少研发经验。
不过,在各层技术栈上“单独发力”,还只是百度大模型的核心竞争力的一部分。
其二,针对这四层核心架构打出“组合拳”,又进一步形成了百度独特的技术优势。
虽然国外如亚马逊、国内阿里都已经在芯片层、模型层上发展了自研技术,微软则也已经在框架层和应用技术上有所准备。
但百度之所以同时发力自研芯片、框架、模型和应用领域,正是侧重于优化这些架构之间的高效协同,从而让自研大模型的基础设施能力进一步提升。
打个比方,对于大模型而言,想要极致优化推理速度和使用成本,算力、框架、模型、应用就像是四个齿轮,各自转速之外,很大程度上还要看它们之间的“配合能力”。
如今,这种“配合能力”,也已经成为百度发力大模型的独特优势。
打通四层技术架构后,百度已经能在基础设施层面上,打出千卡加速比90%、资源利用率70%,开发效率提升100%这样的“组合拳”。
如今,这一套组合拳更是在文心一言大模型应用的成本上,有直观的体现:
此前3月份启动内测时,如今不到2个月,百度大模型文心一言已完成4次技术版本升级,其推理成本更是已经降为原来的十分之一。
最后,在自主可控上,百度的这些技术不仅能用在自身大模型上,还能反过来进一步加速行业大模型的生产落地。
换而言之,文心一言不仅做到了数据可控、框架可控、模型可控,在全球科技领域中拥有话语权,更能将这一套技术对外输出,助力行业加速打造更多大模型。
以百度已经在内测的文心千帆大模型平台为例,仅需少量数据、最快几分钟,大模型就能完成一次“定制化”,极大地加速了大模型从研发到生产的全套过程。
而文心千帆的这一套流水线,并非仅为文心一言所打造,其训练调优经验和技术,已经可以向第三方输出。
换而言之,百度不仅是这波大模型变革浪潮的“参与者”,更是其中的“发力者”,其技术不仅可以用于构建大模型底座,更能对外输出,让国内更多玩家在这一领域具备国际竞争力。
即使目前还在培育摸索期阶段,新玩家还在不断涌现,大模型头部领域的竞争却已经到了白热化阶段。
尤其行业中进展最快的技术玩家,已经开始有上层应用落地的趋势。
在国外,以OpenAI为例,根据SimilarWeb数据,ChatGPT仅2023年4月份,全球访问量就已经达到17.6亿次;至于与ChatGPT和GPT-3相关的应用,据GPT3demo统计已经超过800个,光是这两个月就增加了200多个。
在国内,百度也已经透露了大模型相关应用数据。文心一言开始企业内测之后,在与百度智能云接洽大模型业务的客户中,新客户比例已经超过老客户比例,有超过300+企业参与内测。
显然,当底层大模型技术达到稳定进入实际生产环节的水平,上层就会不断开发出真正有突破性质量的应用。
伴随着应用数量不断增加形成生态,最终将彻底在电商、内容、办公、交通等领域产生巨大的行业变革。
△来源于量子位智库营销客服行业,百度文心一言目前已经将智能客服的知识生产效率提升了9倍,多轮对话构建的成本下降65%,终端用户认为客服接近真人的比率也在上升。
城市交通行业,目前北京亦庄的300多个路口,全都部署了百度AI信控系统,通过智能调整红绿灯的时间,提升最高30%的交通效率,有效解决了北京堵车这一“历史性难题”。
但若仅仅从行业变革的速率和市场规模角度出发,还无法完全解释百度发力大模型的原因。
毕竟从打造大模型的算力、数据和算法等层面的难度来看,仅凭短期的技术自研,显然难以支撑“快速重构所有产品”这一做法。
因此,从自身实力来看,百度这些年在自研芯片、架构到AI算法等各方面的“技术基底”,恰恰又成为了发力这波大模型浪潮必备的关键因素。
具体来说,主要可以分为三个方面。
其一,是在AI技术、尤其是大模型技术上的长期投入和积累。
最早从2013年开始,百度就在布局AI相关的技术,累计十年下来已经投入超过1000亿元,其中核心研发投入多个季度占比超过20%;
巨量研发投入背后,是技术护城河的建立,截至2022年4月,百度全球AI专利申请已经超过2.2万件。
这样的技术积累,让百度如今在大模型研发必不可少的芯片、框架、模型和应用四层架构中,均实现了对应的自研技术积累。
芯片层上,百度自研芯片昆仑二代,已经量产并部署了几万片,而昆仑芯最新的第三代,则预计2024年初投入量产;
框架层上,百度从2016年就开源了飞桨深度学习框架,目前这一框架已经集成了深度学习核心训练和推理框架、基础模型库、端到端开发套件等工具组件,在中国市场份额中排行第一;
模型层上,文心一言背后的核心技术文心大模型,从2019年开始就已经发布1.0版本,并在后续研发中不断进行优化,目前已经迭代到3.5版本;
应用层上,百度除了研发了单独的十个行业大模型以外,在搜索、智能云、自动驾驶、小度等上面也已经积累了不少研发经验。
不过,在各层技术栈上“单独发力”,还只是百度大模型的核心竞争力的一部分。
其二,针对这四层核心架构打出“组合拳”,又进一步形成了百度独特的技术优势。
虽然国外如亚马逊、国内阿里都已经在芯片层、模型层上发展了自研技术,微软则也已经在框架层和应用技术上有所准备。
但百度之所以同时发力自研芯片、框架、模型和应用领域,正是侧重于优化这些架构之间的高效协同,从而让自研大模型的基础设施能力进一步提升。
打个比方,对于大模型而言,想要极致优化推理速度和使用成本,算力、框架、模型、应用就像是四个齿轮,各自转速之外,很大程度上还要看它们之间的“配合能力”。
如今,这种“配合能力”,也已经成为百度发力大模型的独特优势。
打通四层技术架构后,百度已经能在基础设施层面上,打出千卡加速比90%、资源利用率70%,开发效率提升100%这样的“组合拳”。
如今,这一套组合拳更是在文心一言大模型应用的成本上,有直观的体现:
此前3月份启动内测时,如今不到2个月,百度大模型文心一言已完成4次技术版本升级,其推理成本更是已经降为原来的十分之一。
最后,在自主可控上,百度的这些技术不仅能用在自身大模型上,还能反过来进一步加速行业大模型的生产落地。
换而言之,文心一言不仅做到了数据可控、框架可控、模型可控,在全球科技领域中拥有话语权,更能将这一套技术对外输出,助力行业加速打造更多大模型。
以百度已经在内测的文心千帆大模型平台为例,仅需少量数据、最快几分钟,大模型就能完成一次“定制化”,极大地加速了大模型从研发到生产的全套过程。
而文心千帆的这一套流水线,并非仅为文心一言所打造,其训练调优经验和技术,已经可以向第三方输出。
换而言之,百度不仅是这波大模型变革浪潮的“参与者”,更是其中的“发力者”,其技术不仅可以用于构建大模型底座,更能对外输出,让国内更多玩家在这一领域具备国际竞争力。
营销客服行业,百度文心一言目前已经将智能客服的知识生产效率提升了9倍,多轮对话构建的成本下降65%,终端用户认为客服接近真人的比率也在上升。
城市交通行业,目前北京亦庄的300多个路口,全都部署了百度AI信控系统,通过智能调整红绿灯的时间,提升最高30%的交通效率,有效解决了北京堵车这一“历史性难题”。
但若仅仅从行业变革的速率和市场规模角度出发,还无法完全解释百度发力大模型的原因。
毕竟从打造大模型的算力、数据和算法等层面的难度来看,仅凭短期的技术自研,显然难以支撑“快速重构所有产品”这一做法。
因此,从自身实力来看,百度这些年在自研芯片、架构到AI算法等各方面的“技术基底”,恰恰又成为了发力这波大模型浪潮必备的关键因素。
具体来说,主要可以分为三个方面。
其一,是在AI技术、尤其是大模型技术上的长期投入和积累。
最早从2013年开始,百度就在布局AI相关的技术,累计十年下来已经投入超过1000亿元,其中核心研发投入多个季度占比超过20%;
巨量研发投入背后,是技术护城河的建立,截至2022年4月,百度全球AI专利申请已经超过2.2万件。
这样的技术积累,让百度如今在大模型研发必不可少的芯片、框架、模型和应用四层架构中,均实现了对应的自研技术积累。
芯片层上,百度自研芯片昆仑二代,已经量产并部署了几万片,而昆仑芯最新的第三代,则预计2024年初投入量产;
框架层上,百度从2016年就开源了飞桨深度学习框架,目前这一框架已经集成了深度学习核心训练和推理框架、基础模型库、端到端开发套件等工具组件,在中国市场份额中排行第一;
模型层上,文心一言背后的核心技术文心大模型,从2019年开始就已经发布1.0版本,并在后续研发中不断进行优化,目前已经迭代到3.5版本;
应用层上,百度除了研发了单独的十个行业大模型以外,在搜索、智能云、自动驾驶、小度等上面也已经积累了不少研发经验。
不过,在各层技术栈上“单独发力”,还只是百度大模型的核心竞争力的一部分。
其二,针对这四层核心架构打出“组合拳”,又进一步形成了百度独特的技术优势。
虽然国外如亚马逊、国内阿里都已经在芯片层、模型层上发展了自研技术,微软则也已经在框架层和应用技术上有所准备。
但百度之所以同时发力自研芯片、框架、模型和应用领域,正是侧重于优化这些架构之间的高效协同,从而让自研大模型的基础设施能力进一步提升。
打个比方,对于大模型而言,想要极致优化推理速度和使用成本,算力、框架、模型、应用就像是四个齿轮,各自转速之外,很大程度上还要看它们之间的“配合能力”。
如今,这种“配合能力”,也已经成为百度发力大模型的独特优势。
打通四层技术架构后,百度已经能在基础设施层面上,打出千卡加速比90%、资源利用率70%,开发效率提升100%这样的“组合拳”。
如今,这一套组合拳更是在文心一言大模型应用的成本上,有直观的体现:
此前3月份启动内测时,如今不到2个月,百度大模型文心一言已完成4次技术版本升级,其推理成本更是已经降为原来的十分之一。
最后,在自主可控上,百度的这些技术不仅能用在自身大模型上,还能反过来进一步加速行业大模型的生产落地。
换而言之,文心一言不仅做到了数据可控、框架可控、模型可控,在全球科技领域中拥有话语权,更能将这一套技术对外输出,助力行业加速打造更多大模型。
以百度已经在内测的文心千帆大模型平台为例,仅需少量数据、最快几分钟,大模型就能完成一次“定制化”,极大地加速了大模型从研发到生产的全套过程。
而文心千帆的这一套流水线,并非仅为文心一言所打造,其训练调优经验和技术,已经可以向第三方输出。
换而言之,百度不仅是这波大模型变革浪潮的“参与者”,更是其中的“发力者”,其技术不仅可以用于构建大模型底座,更能对外输出,让国内更多玩家在这一领域具备国际竞争力。