•   亲爱的股友,愿你的股票市场之路如同长虹般绚烂,一路飙升,财源滚滚。在风云变幻中保持冷静和理性,把握机遇,实现财富增长的梦想。
  •   亲爱的股票朋友,愿你在新的一年里,股票如潮水般上涨,收益如春笋般茂盛。在市场的海洋中乘风破浪,把握每一个转瞬即逝的机会。祝你投资顺利,财源滚滚!

河南股票配资:个人场外配资-DeepSeek、智谱大模型接连上新 华为、寒武纪等国产芯片火速适配意味着什么

摘要:   在国庆节前夕,DeepSeek和智谱先后宣布推出新一代大模型。与此同时,国产芯片厂商都在第一时间宣布适配,这标志着国产GPU已具备与前沿大模型协同迭代的能力...
代码 名称 当前价 涨跌幅 最高价 最低价 成交量(万)

  在国庆节前夕,DeepSeek和智谱先后宣布推出新一代大模型。与此同时 ,国产芯片厂商都在第一时间宣布适配,这标志着国产GPU已具备与前沿大模型协同迭代的能力,加速构建自主可控的AI技术生态 。

  9月29日 ,DeepSeek宣布开源DeepSeek-V3.2-Exp实验版模型,该模型首次引入了Attention稀疏注意力架构,并在几乎不影响模型输出效果的前提下 ,大幅度提升了长文本训练和推理效率,被DeepSeek定义为“迈向新一代架构的中间步骤”。

  华为、寒武纪 、海光已经完成适配DeepSeek-V3.2-Exp实验版模型

  在DeepSeek宣布后,算力芯片厂商华为、寒武纪(688256)、海光信息(688041)等AI芯片厂商已经宣布适配DeepSeek-V3.2-Exp。

  “华为计算”公众号发文宣布 ,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp Day 0(第零天)支持,并面向开发者开源所有推理代码和算子实现 。DeepSeek-V3.2-Exp在昇腾设备上128K长序列输出 ,能够保持TTFT(首token输出耗时)低于2秒 、TPOT(每token输出耗时)低于30毫秒的推理生成速度。

  在DeepSeek-V3.2-Exp模型宣布开源几分钟内 ,寒武纪也发文称其已同步实现对该模型的Day 0适配,并开源大模型推理引擎vLLM-MLU源代码。

  寒武纪称,公司一直高度重视大模型软件生态建设 ,支持以DeepSeek为代表的所有主流开源大模型 。借助于长期活跃的生态建设和技术积累,寒武纪得以快速实现对DeepSeek-V3.2-Exp这一全新实验性模型架构的day 0适配和优化。

  寒武纪强调,一直重视芯片和算法的联合创新 ,致力于以软硬件协同的方式,优化大模型部署性能,降低部署成本。此前 ,寒武纪对DeepSeek系列模型进行了深入的软硬件协同性能优化,达成了业界领先的算力利用率水平 。

  针对本次的DeepSeek-V3.2-Exp新模型架构,寒武纪通过Triton算子开发实现了快速适配 ,利用BangC融合算子开发实现了极致性能优化,并基于计算与通信的并行策略,再次达成了业界领先的计算效率水平。依托DeepSeek-V3.2-Exp带来的全新DeepSeek Sparse Attention机制 ,叠加寒武纪的极致计算效率 ,可大幅降低长序列场景下的训推成本,共同为客户提供极具竞争力的软硬件解决方案。

  海光信息也宣布其DCU实现无缝适配+深度调优,做到大模型算力“零等待 ”部署 。

  海光信息表示 ,在“深算智能”战略引领下,海光信息始终致力于AI软件栈生态建设,全面支持以DeepSeek为主流的全球主流开源大模型 。得益于长期、活跃的技术积累 ,海光DCU得以快速对DeepSeek-V3.2-Exp完成“Day0”级高效适配与优化。

  基于GPGPU架构强大的生态优势,与编程开发软件栈DIK的特性,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能 ,充分验证海光DCU高通用性、高生态兼容度及自主可控的技术优势,已成为支撑AI大模型训练与推理的关键基础设施。

  DeepSeek表示,得益于新模型服务成本的大幅降低 ,官方API价格也相应下调,开发者调用DeepSeek API的成本将降低50%以上 。从价格来看,输入缓存命中从0.5元降至0.2元/百万tokens ,缓存未命中从4元降至2元/百万tokens ,输出由12元降至3元/百万tokens。

  寒武纪和摩尔线程宣布适配智谱新一代大模型 GLM-4.6

  9月30日,智谱正式发布并开源新一代大模型 GLM-4.6,在 Agentic Coding等核心能力上实现大幅跃升。这是继 DeepSeek-V3.2-Exp 与 Claude Sonnet 4.5 之后 ,国庆节前业界的又一重大技术发布 。

  智谱表示,在公开基准测试和真实编程任务中,GLM-4.6的代码生成能力已全面对齐Claude Sonnet 4 ,成为目前国内最强的Coding模型。同时,模型在长上下文处理 、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级,整体性能超越DeepSeek-V3.2-Exp。作为开源模型 ,GLM-4.6目前是全球开源生态中性能最强的通用大模型之一,进一步提升了国产大模型在全球竞争格局中的地位 。

  智谱官方宣布,GLM-4.6 已在寒武纪领先的国产 AI 芯片上实现 FP8+Int4 混合量化推理部署 ,这也是首次在国产芯片上投产的 FP8+Int4 模型-芯片一体化解决方案。在保持模型精度不变的前提下,该方案大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径和示范意义。

  与此同时 ,摩尔线程基于 vLLM 推理框架完成了对GLM-4.6 的适配 ,新一代GPU可在原生 FP8 精度下稳定运行模型,充分验证了MUSA 架构及全功能GPU在生态兼容性和快速适配能力方面的优势 。

  华为 、寒武纪、摩尔线程等芯片厂商完成对新一代前沿大模型的适配,这标志着国产GPU已具备与前沿大模型协同迭代的能力 ,加速构建自主可控的AI技术生态。

  智谱表示,未来,国产原创的GLM系列大模型与国产芯片的深度协同 ,将在模型训练和推理环节持续推动性能与效率的双重优化,构建更加开放、可控 、高效的人工智能基础设施。

  截至30日收盘,寒武纪报收1325元 ,微涨0.11%;海光信息报收252.6元,跌1.27% 。

你可能想看:
分享到:

发表评论

评论列表

还没有评论,快来说点什么吧~