Meta发布Llama 3系列两个开源大模型之后,百度、阿里、腾讯等国内云厂商迅速抢食Llama 3的算力部署需求。
今日,阿里云宣布全方位支持Llama 3系列模型的训练与推理。阿里云百炼大模型服务平台推出针对 Llama 3系列的限时免费训练、部署、推理服务。腾讯云也宣布腾讯云TI平台成为国内首批支持Llama 3全系列模型的平台之一。
而在4月19日,百度智能云千帆大模型平台已宣布成为国内首家推出针对Llama 3全系列版本训练推理方案的云厂商。亚马逊云同日宣布这两款模型已在Amazon SageMaker JumpStart中提供。
多名科技界人士此前对Llama 3系列评价颇高,认为后续可能开源的Llama 3超4000亿参数版本有望改变大模型生态,更有从业者指出,开源的Llama 3有如安卓,一夜之间打掉所有闭源手机操作系统。
随着开源潮流继续,云厂商也不再仅依托与闭源大模型厂商绑定,而走向了抢食开源大模型算力需求。
Llama 3性能几何?
Llama 3已开源版本的基准测试数据亮眼。据Meta介绍,指令微调的Llama 3 8B在五项基准上得分超Gemma 7B-1t和Mistral 7B Instruct,Llama 3 70B三项基准超过Gemini Pro 1.5和Claude 3 Sonnet。
这两个开源模型发布后,近日陆续还有业界人士发表对该模型的看法。360创始人、董事长周鸿祎认为,这两个开源模型性能很强,应该远远超过GPT-3.5,Llama问世再次验证了其对开源的信心。
国内则关注到Llama 3的中文能力和长文本弱点。记者在一个大模型业内人士讨论群中看到,不少大模型开发者诟病Llama 3的中文表现,有大模型开发者实测发现其中文能力不如GPT-3.5,称后续使用可以等第三方微调的中文Llama 3出来。不过有业内人士分析,Llama 3将中文能力弱化了,这不是很大的问题,好的中文模型不一定需要很大量中文数据。
Llama 3上下文窗口仅8k,落后于业内平均水平。周鸿祎表示,360的7B(70亿)参数大模型可输入长文本360k,已开源了长文本训练方法,可将这个方法用在Llama 3 8B训练,弥补该模型短板。
Llama 3开源引发开闭源路线之争讨论后,Meta CEO扎克伯格近日在一次访谈中则透露了Meta开源的想法和决心。他表示,即便一个模型研发成本达100亿美元,只要对Meta有帮助,就会开源。扎克伯格提到开源的好处时举了个例子:此前Meta开放计算项目开源,随着全行业以Meta的设计为标准,供应链基本围绕此建立,起量后为其节省了数十亿美元。
“开源可以在很多方面提供帮助,一个是人们能否找到更便宜运行模型的方法。随着时间推移,我们将在这些东西上花费几千亿美元或更多。所以如果能提高10%效率,就能节省数十亿甚至数百亿美元,它本身就可能值很多钱。”扎克伯格表示。
周鸿祎在论述Llama 3开源的意义时也提到相似观点,他曾经问过谷歌高管为什么把很多大数据项目贡献给公众,对方的回答令他惊讶。“他说软件规模非常大,靠一家公司独立维护成本非常高,开源之后就变成公共财产,形成我为人人、人人为我的文化。“周鸿祎表示。
云厂商抢食
Llama 3开源一石激起千层浪,阿里云、百度云、腾讯云也嗅到了机会,入场抢夺算力需求。
云厂商绑定大模型公司以锁定算力乃至芯片需求,以往并不少见,且云厂商由此获得的利润可观。OpenAI背后站着的投资方是微软,ChatGPT就运行在微软Azure上。有“OpenAI最强对手”之称的Anthropic,身后则站着亚马逊。
今年3月,亚马逊完成对Anthropic的40亿美元投资,双方战略合作协议内容包括,Anthropic选择亚马逊云科技作为其关键任务工作负载的主要云服务提供商,Anthropic将利用Amazon Trainium和Amazon Inferemtia芯片来构建、训练和部署未来模型。这两款芯片是亚马逊的自研芯片。今年3月,Anthropic发布最新大模型系列Claude 3,亚马逊立马宣布Amazon Bedrock可运行Claude 3系列,且是唯一一个为该系列模型提供托管服务的平台。
参考微软云服务绑定OpenAI后的收效,在截至2023年12月31日的2024财年第二季度,微软智能云营收259亿美元,剔除汇率影响后同比增长19%,AI为Azure云贡献了6个百分点的增长,其中绝大部分增量来自OpenAI在Azure云上的推理调用。亚马逊云服务AWS则在2023财年第四季度获得242.04亿美元营收,同比增长13%。亚马逊首席财务官布奥尔萨夫斯基表示,客户对AWS生成式AI产品表现出很大兴趣,虽然生成式AI服务体量相对较小,但公司相信其在未来几年将带来价值数百亿美元的收入。
国内云厂商中,不少也是大模型开发商,腾讯自研混元大模型,阿里自研通义千问,百度有文心大模型。此外,不同于一些大型互联网服务厂商自建服务器集群的情况,一些大模型创业公司还无太多余力搭建服务器集群,而是使用云厂商计算资源。有云厂商相关负责人向记者描述,大模型训练所需GPU算力,要一千张卡、一万张卡连通,这不是所有公司都能做到的,云厂商基于规模和效率优势天然更适合大模型场景。
除了自研大模型,云厂商自然不愿放过其他大模型的算力需求。百度旗下有面向企业客户的大模型平台文心千帆,支持第三方大模型能力导入,千帆ModelBuilder支持国内外第三方主流模型,总数量达79个。此外,阿里云旗下有魔搭社区,腾讯云TI平台则已接入Llama 2、Falcon、Dolly等开源模型。今年3月,阿里云魔搭发起一项开源计划,支持国内类Sora模型创新。
相比推理训练更具中心化特点的闭源模型,诸多云厂商都有机会拼抢算力分散的开源模型部署需求。而随着Grok-1、Llama 3等相继突破开源模型参数上限,潜在算力需求也在攀升。如果Llama 3 参数量超4000亿版本可以获得媲美GPT-4的性能,部署该模型的需求攀升,接入Llama 3的云厂商能吃到的算力红利可能不低于微软。
开源大模型厂商也在评估自身能否从云服务厂商相关收入中分成。
在谈到是否考虑向云厂商授权模型,以赚取可观收入时,扎克伯格表示:“希望有这样的安排,但我不知道会有多大意义。我们希望,如果他们打算把我们构建的东西转卖并从中赚钱,那么他们应该来和我们谈谈。如果你是微软Azure或亚马逊,打算转售我们的模型,那么我们应该有一些收入分成。“
扎克伯格提到,Llama 2基本已与所有主要云计算公司达成协议,可以作为托管服务在这些云上使用,而随着发布的模型越来越大,这将成为一件大事。“如果要销售我们的模型,我们就应以某种方式分享其中的好处。”
Prev Chapter:微软秒删堪比GPT-4的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试
Next Chapter:新测试基准发布,最强开源Llama 3尴尬了