AI导读:

DeepSeek启动“开源周”,连续5天每天开源1个核心代码库,包括FlashMLA、DeepEP、DeepGEMM等技术,旨在提高AI运行效率和降低成本。严骏驰教授表示,AI竞赛的下半场是“基建赛”,底层技术的优化和升级是关键。

  本周Deepseek启动了“开源周”,连续5天每天开源1个核心代码库。这些代码库有何技术亮点?DeepSeek一直秉持的开源又有何深层意义?解放日报记者专访了上海交通大学人工智能学院严骏驰教授,为您揭秘。

【盘点“开源周”技术亮点】

  DeepSeek第一天开源的FlashMLA项目,旨在提高大模型在计算注意力过程中的效率。其采用的多头潜在注意力(MLA)机制,由DeepSeek去年5月首次提出,能有效降低模型冗余参数。FlashMLA则作为高效计算MLA的工具,通过优化算法,充分发挥图形处理单元(GPU)芯片的算力,让AI运行更流畅。

  严骏驰教授比喻,大模型处理文本的过程类似于快递分拣包裹,而FlashMLA就像一位聪明的调度员,能根据包裹自动安排合适的车辆进行装车和运输,有效降低了成本。这种技术的应用,不仅提升了国产芯片运行AI的效率,还可能让未来的手机和电脑在处理复杂任务时更快且更省电。AI的高效运行,是算法、硬件和软件精妙协作的结果。

  第二天,DeepSeek开源了DeepEP技术,该技术优化了“混合专家模型”中各模型之间的通信过程。严骏驰表示,DeepEP就像是在专家之间修建了一条高速公路,实现了多个专家之间的数据快速传输和快速聚合,同时降低了计算量和成本。这一技术的应用,意味着未来AI服务的响应速度可能会更快,成本也会更低。

  第三天,DeepSeek开源的DeepGEMM技术,仅用300行代码就打造了一个针对FP8(一种8位浮点数据格式)的矩阵乘法“数学天才”。这种优化不仅缩短了AI模型的训练时间,还降低了硬件成本,对天气预报、药物研发等科学计算领域具有重要意义。

  第四天,DeepSeek开源了DualPipe和EPLB技术,解决了AI模型训练过程中芯片在计算和数据传输之间的等待问题。DualPipe通过实现计算与通信的高效重叠,让芯片在原本等待的时间内同时开展其他任务;EPLB则通过动态调整任务分配,平衡各环节的工作量。这两项技术的结合,降低了大模型训练的成本,为未来AI技术的普及降低了门槛。

  第五天,DeepSeek开源了3FS文件系统,通过结合高性能硬盘和网络技术,大幅提升了数据存取速度。这一高性能的存储系统,不仅显著缩短了AI训练的时间,还降低了硬件成本,为AI学习新知识提供了有力支持。

【AI竞赛的下半场是“基建赛”】

  开源一直是DeepSeek的精神内核之一。当ChatGPT等生成式AI惊艳世界时,DeepSeek的开源揭示了AI发展的另一个真相:底层技术的优化和升级才是AI模型能否真正落地的关键。

  严骏驰教授认为,AI竞赛的下半场是“基建赛”。AI的算力调度、通信效率、存储速度等底层技术,极大地影响了AI模型在使用过程中的用户体验。DeepSeek五天连开五炮,瞄准的正是这些“地基工程”。

  生成式AI需要“多轮驱动”,算法、芯片、通信、存储等各个环节都需要共同升级。DeepSeek的技术布局证明,软硬件协同才是AI发展的关键。

  在西方芯片封锁背景下,DeepSeek通过开源让国产GPU、存储系统与AI技术深度适配,为国产AI的破局提供了新思路。

  展望未来,AI的发展需要“工匠的积累”。DeepSeek的爆发看似突然,实则是深耕底层技术的厚积薄发。只有那些低头修路的人,才能真正定义AI时代。

(文章来源:上观新闻)