推广 热搜:

剑指AI算力霸主英伟达 Cerebras发布自研超算训练的开源大模型内幕爆光

   2025-11-06 01:11  发布时间: 5个月前   260
核心提示:  财联社  当地时间周二,硅谷AI芯片公司 发布7款类似于GPT的大语言模型。除了发布开源大模型外,展现了一条不用英伟达GPU、不接接口也能实现“大模型自由”的道路。  单纯从数据来看,这次发布的7个大模型参数量介于1.11亿至130亿之间。作为对比,谷歌的多模态视觉语言模型PaLM-E具有5620亿个参数;同样在本月发布的GPT-4模型虽然尚未公布确切数据,但有

  财联社

  当地时间周二,硅谷AI芯片公司 发布7款类似于GPT的大语言模型。除了发布开源大模型外,展现了一条不用英伟达GPU、不接接口也能实现“大模型自由”的道路。

  单纯从数据来看,这次发布的7个大模型参数量介于1.11亿至130亿之间。作为对比,谷歌的多模态视觉语言模型PaLM-E具有5620亿个参数;同样在本月发布的GPT-4模型虽然尚未公布确切数据,但有媒体援引内部人士透露,参数量大约是GPT-3(1750亿)的6倍。

  按照目前人类对AI的认知,模型越大,最终能够满足的需求就更加复杂。当然,规模较小的模型也有自己的用武之地,例如可以配置在手机、智能音箱中。同时也有研究显示,规模较小的模型如果经过多次训练,准确率反倒能变得更高。

  但如同上文所述,本身是一家芯片公司,所以训练模型用的是自家的 AI超级计算机,其中部署了16套CS-2系统。非常具有记忆点的是,生产的AI芯片WSE-2的尺寸约为英伟达A100芯片的56倍,核心数量达到85万个,同样是A100芯片的123倍。这块芯片使用的是台积电7nm工艺,售价超过200万美元。

  所以周二发布的多款模型,本身也是向AI算力霸主英伟达发出的战书。在的点燃全球科创圈子的热情后,虽然有许多芯片公司试图撬动英伟达牢牢占据的市场,但取得实际成果的并不多。许多知名企业,也通过直接用英伟达的全套服务来训练自家的AI产品,从而快速取得成绩。

  面向潜在的客户,也强调自己的芯片具有训练时间短、同等预算下准确率高等优点,是目前世界上已经公开的大模型中生产性价比最高的方案。公司CEO 也确认,使用训练出来的模型,未来也能在英伟达的系统中继续训练和定制化。

  多少有些嘲讽发布GPT-4后不再开源的做法,也在周二宣布公司训练出来的7个大模型全部在-2.0许可的条件下向研究社区开放,包括模型本身、训练算法和权重,以此打造行业开源的标杆。

  表示,任何人只需要向这些高度精准的预训练模型输入一定数量的数据,就能以很少的工作量,开发出功能强大垂直行业应用程序。

 
举报 收藏
 
更多>同类生活资讯
推荐图文
推荐生活资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  赣ICP备2024040164号-4