AI研究进入“深水区”,学者呼吁:不能只关注模型做得多大、性能提得多高
AI导读:
当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?日前,FAIC 2026(人工智能基础大会)在上海财经大学举行。会上传递行业共识:在持续提升模型能力的同时,人工智能研究正在进一步走向基础问题。
当日,来自高校
当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?日前,FAIC 2026(人工智能基础大会)在上海财经大学举行。会上传递行业共识:在持续提升模型能力的同时,人工智能研究正在进一步走向基础问题。
当日,来自高校、科研机构及企业的400余位不同学科的学者与从业人员参会。围绕“大模型为何有效”“能力如何形成”“训练怎样更高效、更稳健”“如何以扎实研究支撑下一阶段创新”等关键问题,与会专家展开集中讨论。
主旨报告环节,多位专家从模型结构、数学智能化、大模型机理等角度展开分享,既聚焦基础理论,也回应技术演进中的现实挑战。
针对现有等变网络大多集中于旋转、平移等相对简单变换,而难以有效处理仿射与投影变换的难点,北京大学林宙辰教授介绍了团队利用微分不变量设计实用的仿射与投影等变网络的最新工作。相关研究表明,将更强的几何等变性引入深度网络设计,有助于提升模型在图像识别等任务中的参数效率与鲁棒性,也为复杂视觉场景下的模型结构创新提供了新的思路。
北京大学董彬教授则从人工智能与数学交叉的角度,讨论了AI如何更深度地赋能数学研究。他认为,提升人工智能数学推理能力的关键之一,在于推进数学知识的形式化,即推动数学进一步“数字化”。报告系统梳理了AI4M(AI for Mathematics)领域近年来的发展脉络,并介绍了北京大学AI4M团队在形式化模型与工具设计、自动推理系统构建以及高质量评测集开发等方面的阶段性成果,展现了人工智能服务基础科学研究的广阔空间。
上海财经大学陆品燕教授将关注点进一步落在“大模型为何有效”这一基础问题上。他谈到,尽管大模型能力近年来快速提升,不断刷新学界和业界对人工智能能力边界的认识,但相比之下,人们对于大模型内在机理的理解仍然相对有限。陆品燕强调,人工智能发展不仅需要持续推进能力提升,也需要加强对模型行为、能力来源和复杂性机制的基础研究。
与会专家们认为,当前人工智能研究正从更强调经验驱动的阶段,逐步走向理论探索、方法创新与系统能力协同推进的新阶段。学界不能仅关注“模型做得多大、性能提得多高”,而要进一步追问模型能力形成的内在机制,以及人工智能如何在更扎实的理论与方法支撑下实现可持续发展。
大会平行论坛覆盖大模型训练与对齐、机器学习理论、优化方法、图机器学习、模型加速、数据优化等多个方向。多场讨论传递出一个共识:面对模型规模扩大、训练成本上升和应用需求提升等现实挑战,单靠某一类方法已经难以支撑下一阶段发展,需要在基础理论、方法创新和系统优化等多个层面同时寻找突破。
正如多名参会学者所言,当前人工智能研究处于更加重视基础、重视规律、重视长期积累的关键阶段。无论是模型结构设计、训练方法改进,还是数据质量提升与交叉应用拓展,最终都离不开扎实的基础研究支撑。面对人工智能进入“深水区”的现实挑战,学界与业界正在更系统地回到那些绕不开的基础问题,并尝试给出答案。
(文章来源:上观新闻)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

