AI研究进入“深水区”,能力提升与基础追问并进

青年报·青春上海记者 刘晶晶/文 受访者/图
当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?在沪召开的 2026人工智能基础大会(FAIC)回答了这个问题:既要继续提升能力,也要深入探索基础问题。
这一大会吸引了来自北京大学、清华大学、上海财经大学、中国人民大学、上海交通大学、复旦大学、南京大学、浙江大学、香港大学、香港科技大学(广州)等高校、科研机构及企业的400余位不同学科的学者与从业人员参会。围绕“大模型为何有效”“能力如何形成”“训练怎样更高效、更稳健”“如何以扎实研究支撑下一阶段创新”等关键问题,与会专家展开了集中讨论。
主旨报告环节,多位专家从模型结构、数学智能化、大模型机理等角度展开分享,既聚焦基础理论,也回应技术演进中的现实挑战。
在开场的主旨报告中,北京大学林宙辰教授介绍了团队利用微分不变量设计实用的仿射与投影等变网络的最新工作。相关研究表明,将更强的几何等变性引入深度网络设计,有助于提升模型在图像识别等任务中的参数效率与鲁棒性,也为复杂视觉场景下的模型结构创新提供了新的思路。
北京大学董彬教授则从人工智能与数学交叉的角度,讨论了AI如何更深度地赋能数学研究。他指出,提升人工智能数学推理能力的关键之一,在于推进数学知识的形式化,即推动数学进一步“数字化”。他还介绍了北京大学AI4M团队在形式化模型与工具设计、自动推理系统构建以及高质量评测集开发等方面的阶段性成果,展现了人工智能服务基础科学研究的广阔空间。
上海财经大学陆品燕教授则将关注点进一步落在“大模型为何有效”这一基础问题上。他指出,尽管大模型能力近年来快速提升,不断刷新学界和业界对人工智能能力边界的认识,但相比之下,人们对于大模型内在机理的理解仍然相对有限。结合自己从理论计算机研究转向关注大模型算法与机理的研究经历,陆品燕分享了其近一年来对大模型机理问题的学习与思考,强调人工智能发展不仅需要持续推进能力提升,也需要加强对模型行为、能力来源和复杂性机制的基础研究。
从专家探讨议题可见,本次大会所关注的,已不只是“模型做得多大、性能提得多高”,而是进一步追问模型能力形成的内在机制,以及人工智能如何在更扎实的理论与方法支撑下实现可持续发展。
平行论坛则进一步呈现了当前研究议题的纵深与交叉。论坛覆盖大模型训练与对齐、机器学习理论、优化方法、图机器学习、模型加速、数据优化等多个方向。与会者不仅关注如何让大模型训练得更高效、更稳定,也关注模型行为背后的内在规律,以及人工智能与科学研究、复杂场景应用深度结合的可能性。多场讨论传递出一个共识:面对模型规模扩大、训练成本上升和应用需求提升等现实挑战,单靠某一类方法已经难以支撑下一阶段发展,需要在基础理论、方法创新和系统优化等多个层面同时寻找突破。
FAIC 2026的召开,恰逢人工智能研究更加重视基础、重视规律、重视长期积累的关键阶段,无论如何发展,最终都离不开扎实的基础研究支撑。大会没有刻意追求“惊人的结论”,却释放出一个鲜明信号:面对人工智能进入“深水区”的现实挑战,学界与业界正在更系统地回到那些绕不开的基础问题,并尝试一步步给出答案。
青年报·青春上海记者 刘晶晶/文 受访者/图
编辑:张红叶
来源:青春上海News—24小时青年报
- 相关推荐







