国产GPU算力平台助力,全球首个类脑脉冲大模型“瞬悉”1.0问世
AI导读:
中国科学院自动化研究所等单位科研人员在国产GPU算力平台上完成全球首个类脑脉冲大模型“瞬悉”1.0训练推理,并开源70亿参数版本,该模型在极低数据量下高效训练,推理效率数量级提升,构建国产自主可控生态,为超长序列应用场景提供高效建模工具。
记者8日从中国科学院自动化研究所获悉,来自该所等单位的科研人员首次在国产GPU(图形处理器)算力平台上完成原生类脑脉冲大模型“瞬悉”1.0的全流程训练和推理,并正式开源了70亿参数版本大模型,同时开放了760亿参数版本大模型的测试网址。这是全球首个类脑脉冲大模型,实现了全流程国产化,标志着我国在类脑计算与大模型融合创新方面取得重要突破。类脑脉冲大模型、国产GPU算力平台等关键词凸显了此次成果的创新性和自主性。
当前,基于Transformer架构的大模型主要依赖简单“点神经元”与大规模算力提升智能,但其训练和推理成本随文本长度急剧增加,严重制约超长文本处理能力的提升。而此次“瞬悉”1.0的推出,无疑为解决这一问题提供了新的思路和方向。
在这项研究中,研究团队借鉴大脑神经元的工作机制,提出了一种“基于内生复杂性”的具有线性复杂度的类脑脉冲大模型架构,成功打造出“瞬悉”1.0。“这个模型不仅在理论上揭示了新型计算路径,还构建了适配国产算力的训练推理框架,为构建更高效、更复杂且性能更强的新型大模型开辟了新路径。”中国科学院自动化研究所研究员李国齐说。类脑脉冲大模型的创新,将为未来的智能计算带来新的变革。
相比传统模型,“瞬悉”1.0展现出四大核心优势:首先,在极低数据量下实现了高效训练,显著提升了长序列训练效率;其次,推理效率得到数量级提升,特别是在超长序列处理上展现出显著优势;再次,构建了国产自主可控的类脑大模型生态,支持将现有Transformer模型高效转换为类脑脉冲架构;最后,设计了多尺度稀疏机制,为低功耗类脑大模型运行提供了有力支撑。这些优势将进一步推动类脑脉冲大模型的发展和应用。
李国齐表示,这项成果不仅是我国在类脑脉冲大模型架构和国产算力全流程建设上的重大突破,更为法律、医疗、科学模拟等超长序列应用场景提供了更高效的建模工具,也将启迪下一代神经形态计算理论和芯片设计。类脑脉冲大模型的未来应用前景广阔,值得期待。
(文章来源:科技日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

