首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >GDPS 2025全球开发者大会AI+教育论坛收获与科学范式思考

GDPS 2025全球开发者大会AI+教育论坛收获与科学范式思考

原创
作者头像
math chen
修改2025-12-21 12:02:21
修改2025-12-21 12:02:21
7810
举报

一、 GDPS 2025论坛现场:AI与教育者的深度碰撞

今天我想分享一下我在 GDPS 2025 年全球开发者大会上的一些收获。一开始,我参加了 AI+教育的分论坛,并作为圆桌嘉宾分享了“大开发者和小开发者的交流与互动”。这部分内容我已经发在了视频号里,这里不再赘述。我更想深入讲讲我个人的收获。

在讲座中有两位老师给我留下了深刻印象。一位是上海师范大学信息与机电工程学院院长潘建国老师,他在论坛上做了分享,主要表达了对 AI 在教育领域中,教育者和学习者这两个维度的看法。另一位是来自上海科技艺术教育中心科技部部长的林君秋老师,她主要负责青少年比赛的组织,并分享了自己在青少年 AI 教育和比赛方面的经验和经历。这两位老师的分享有很多相似之处。上海师范大学的老师更侧重于 AI 教育的整体观点,而林君秋老师则以比赛为背景,讲述了青少年学习 AI 以及如何教授他们 AI 的实战经验。

他们的观点和经历对我们有很多启示。接下来,我想从我的角度,也就是一个 AI 从业者的角度,以及一个数学系毕业、对科学很感兴趣的人的角度,来看看我们如何从高层次的视角理解他们提到的一些问题,包括他们讲到的实际案例,以及背后结合物理方面的原理。

二、 科学范式的迁徙:从“李约瑟之问”到深度学习

我先从一个简单的例子讲起。吴国盛老师,北京大学的教授,写过一本书叫《什么是科学》。这本书在我们班高三的时候非常风靡,大家都抢着看。为什么呢?因为这本书回答了一个很重要的问题,被称为“李约瑟之问”,即科学为什么没有出现在中国?这个问题非常重要,因为它直接影响到后面一个问题,也就是“钱学森之问”,即中国的人才培养问题。这两个问题是紧密相关联的。

其实我们可以进一步延伸,提出自己的问题,比如:人工智能为什么没有最先出现在中国?统计学为什么没有最先出现在中国?人工智能最先出现在了哪里?机器学习最先出现在哪里?深度学习最先出现在哪里?而这些问题的答案大体上都是:它们都最先出现在西方。以深度学习为例,Geoffrey Hinton 是深度学习的奠基者之一。他曾经做过木工,也就是木匠,这点和我父亲一样,都是做过木匠的。

Geoffrey Hinton 坚持不懈,即便在理论没有硬件支持、没有 AI 基础设施、没有算力支持、也没有 GPU 的年代,他也预见到将来一定会获得奖项,至少是图灵奖。事实证明,只要硬件跟上,深度学习的理论一定会非常强大。他的学生杨立昆(Yann LeCun)也和他一起合作,发展了深度学习的理论。不过,两人搭配毕竟不如三人搭配稳定。很多重要成果都是三个人合作完成的。三个人是最稳定的关系,因为三角形的两边之和大于第三边,是二维空间里最稳定的几何结构。另外一个人就是约书亚·本吉奥(Yoshua Bengio),他是我高中同学杨运的博士后同门师兄弟。

讲到为什么人工智能没有最先出现在中国,还有一个很重要的原因,就是中国科学的范式。中国的科学范式和其他国家有一些不同,我们主要以经验主义为主,很少提出科学假设。以开普勒定律为例,这是科学的一次进步,标志着科学进入了第二范式。第二范式的特点是有一个假设,然后通过实验或观察去验证这个假设。开普勒第二定律的研究方法就是如此,用来研究行星的运动轨迹。

之后,科学的发展变得一发不可收拾,第三范式也开始逐渐兴起。第三范式类似于空气动力学、流体力学和湍流方程(NS方程)等领域。这里的大佬非常多,比如钱学森的老师冯·卡门,他是 NASA 的奠基人之一,钱学森也是。如果没有钱学森和他的导师冯·卡门,美国现在的 NASA 就不会有送飞机和火箭上天的能力。接下来,谈到第三范式里非常杰出的人物,其中一位是林家翘老师。他是应用数学界的大咖,主要研究流体力学相关的应用数学理论。最近,鄂维南院士获得了华人数学家大会的奖项,这个奖就叫做林家翘奖。

The hierarchy of physical models
The hierarchy of physical models

在林家翘之后,还有一些他的后辈,比如布朗大学的舒其望老师,也是研究这个领域。还有浙大的林芳华老师,原来在纽约大学,后来到了上海纽约大学,也去浙大讲学过。林芳华老师有一个合作者,也可以说是他的学生,叫做雷震。雷震老师今年评院士,他不仅数学好,还教同学们怎么看 Elias Stein 写的那本《调和分析》大部头书。雷震老师还教大家要提高数学工作者的情商,不要只顾埋头学习,要向大佬们请教、交流。

三、 算法仿真、硬件主权与 AI 的第四范式

关于科学的第三范式,还必须提到仿真。所谓仿真,包括蒙特卡洛方法,还有各种我以前用过、学习过的算法,比如遗传算法。我在本科论文里提到过遗传算法,还有一种相关的退火算法。各种仿真算法非常多,比如大飞机的风洞实验都需要用到这些。Matlab 里有很多相关的包,早期在哈工大那边研发了很多这样的包,可以直接调用。

说到 Matlab,我不得不提到摩尔线程。我认识的老师吕其恒,他负责摩尔线程的科研生态。摩尔线程非常有技术含量,号称要再次做一个中国的 Matlab,在硬硬件和软件层面都不再被国外卡脖子。吕老师估计是直接向创始人张建中老师汇报。

现在我们稍微停一下,讲讲第四范式。第四范式其实也很简单,就是数据科学。AI 并不是通过逻辑的方法去运作,而是通过总结数据的经验,用统计学习的方法,从所有数据中自动提炼规律。科普地说,AI 其实是模仿人的神经网络,主要模仿的是生物神经网络的几个结构:神经元、突触、树突和轴突。

人体的神经网络在传播过程中用的是电信号。电磁学中的麦克斯韦方程告诉我们,电磁波传播速度接近光速 c。但我讲这些是想说明 AI 并非万能,因为深度神经网络的数学基础是梯度下降算法(Gradient Descent),它在全量数据下会遇到计算机性能的限制。由于我们还没有量子计算机,所以计算慢慢从 CPU 发展到 GPU。虽然英伟达发布了很多新技术,但总体还是基于 GPU 这套理论和 CUDA 系统,并没有本质上的跃迁。摩尔定律限制的是 AI 的基础设施。

接下来,我们要知道,人体靠电传播信号,AI 靠电支持算力。所以,AI 最基础的东西并不是算力,而是能源。AI 的耗能巨大。对于算力和能源的关系,我香港科技大学的一个学妹,现在是美国投资机构 Altimeter 的合伙人,曾在 YouTube 采访中讲得非常透彻。链接如下:https://www.youtube.com/watch?v=FAfb6MWBcSY&t=199s

讲完能源,再谈 AI 与脑科学。AI 主要模仿大脑,大脑又分为大脑和小脑,左脑和右脑,分工不同。从原始人到智人,经历了“蜥蜴脑”到“人脑”的进化。前额叶(印堂位置)负责高级智慧,而杏仁核负责本能。我们需要知道 AI 的本源在于模仿人类,它不可能超过人类。脑科学在中国的研究机构如复旦大学(我同学丁维洋是青年研究员)和中国科学技术大学(周少华教授在脑影像识别领域很有造诣)。

四、 智慧的悖论:从《黑客帝国》到具身智能

关于大脑,存在一个悖论:人脑无法真正完全研究自己的大脑。这和希腊神话有关,雅典娜从宙斯脑中蹦出,隐喻智慧来源于大脑,但无法超越大脑。我也写过智能体制造智能体的段子。

这里推荐大家复习两部电影:《楚门的世界》和《黑客帝国》(Matrix)。里面有很多隐喻。在 AI+教育论坛上,大家觉得 AI 能做高等教育吗?我认为 AI 必须有输入才会有输出,它不像鄂维南老师或周钢老师那样会主动教你。AI 在 AGI 到来前,没有自发的主动性(Proactive)。

为什么?因为人脑比 AI 强得多。根据麦克斯韦方程,电信号传播接近光速。我们在做梦时,会有极其复杂的感官体验。做梦的底层原理就是电信号在人体神经网络(如姚明两米高的身体里)传输速度实在太快了,这种速度产生的奇异现象,远超目前 AI 的算力模拟。

再说说 AI 算力的底层。底层原理不只是芯片,更是芯片之上的 AI Infra(基础设施软件)。我最近在腾讯云技术同盟里筹备 AI Infra 讨论班,因为应用层门槛较低,而 Infra 才是核心。黄仁勋的高瞻远瞩就在于看准了这个市场,除非量子计算机问世,否则他的地位很难动摇。目前潘建伟、陆朝阳、彭承志团队研究的“九章”系统虽有突破,但离通用量子计算还有距离。

AI 在前端工作如 UI 界面(类似 Figma 或中国的墨刀)上已经可以代替人类。回顾路径:蒸汽机、电子革命、摩尔定律、互联网(TCP/IP、万维网),再到乔布斯的移动时代。现在是智能革命时代,特点是 Agent Commerce(智能体商业)。

五、 从 AlphaGo 到 Diffusion Model 的演进

AI 在教育领域的难度在于它是否能理解规则之上的东西。AI 下围棋是历史性突破。早期的“深蓝”(Deep Blue)打败了卡斯帕罗夫,研究者之一是许峰雄老师。后来的 AlphaGo 和 AlphaZero 打败了李世石,用的是反馈机制和对抗神经网络(GAN)。

GAN 的发明者是约书亚·本吉奥的学生 Ian Goodfellow。随后演进出了扩散模型(Diffusion Model)。目前的 stable diffusion 背后就是这个算法。架构上分为 JiT(生成图片)和 DiT(生成多模态)。中国的哩布哩布、即梦、可灵都在用。

关于扩散模型的细节:

  1. ViT (Vision Transformer):将图像切分为 patch,是视觉生成的核心。
  2. JiT (Just image Transformers):何恺明老师 2025 年的最新贡献,主张回归直接预测干净图像,而非预测噪声。
  3. DiT (Diffusion Transformer):适配扩散任务的 Transformer 骨干网络。
  4. MMDiT:多模态升级版,融合文本和图像。
  5. LDM (Latent Diffusion Model):在低维 latent 空间进行计算,平衡效率。

何恺明老师作为汤晓鸥老师的大弟子,在 2025 年对扩散模型进行了颠覆性优化。此外,Gemini 3 Pro 和生图项目 NanoBanana 也有最新突破。

六、 AI for Science:跨越学科的第五范式

诺贝尔奖最近关注了 AlphaFold,它能直接预测蛋白质结构,极大减少了生物学家的工作量。

这引出了我最想讲的 AI for Science,AI for Science 分为几个板块:

  • AI for Math:目前数据量和推理模式(如 LEAN)还有限,陶哲轩也有关注。
  • AI for Physics/Chemistry:涉及实验验证。
  • AI for Biology/医药:颜宁老师认为这实实在在提升了 20% 的效率。

在 AI for Science 领域,深势科技 (我学弟张林峰的公司) 、和鲸科技 (我学长范向伟老师的公司) 以及幻量科技 (我朋友刘雨阳老师的公司) 都在深耕。这里涉及科学研究的“第五范式”。传统是科学家原创,现在是科学家利用 AI 工具。虽然 AI 存在不可解释性,但在探索性分析(Exploratory Analysis)中极具价值——即“大胆假设,小心求证”。

第五范式是跨越理论(Theory)走向定律(Law)。理论可能不完全正确,但定律是颠扑不破的。我们需要解决原子、电子层面的问题,产生飞轮效应。正如保罗·狄拉克(Paul Dirac)在 1929 年所言:物理和化学的底层定律已基本明晰,难点在于方程太复杂无法求解。

Paul M. Dirac (1929)
Paul M. Dirac (1929)
Unsolved Scientific Problems
Unsolved Scientific Problems

这就需要像杨振宁老师那样的视野。杨老师的规范场论、杨-米尔斯场、杨-巴克斯特方程影响深远。他与复旦数学系(谷超豪、胡和生、李大潜等)的交流是跨学科合作的典范。谷超豪老师曾在晚年到交大讲规范场论,我有幸挤进去提问。

我们要学习杨振宁和爱德华·威滕(Witten)这种“全才”。他们不仅物理好、数学好(都拿过或该拿菲尔兹奖),而且文科功底深厚。杨先生学过国学经典,Witten 本科是历史。

七、 数据核心与未来结语

最后,不管是空间智能还是任何 AI 系统,都离不开高质量数据。正如鄂维南老师、汤林鹏的元枢智汇,以及库帕斯公司,都在致力于“十五五”规划中的高质量数据集建设。

数据驱动的 AI 是第四范式。我学长汤文渊创立的“第四范式”公司也是基于此。学习方法上,我们不要“重复造轮子”。比如我中学研究布朗运动推导出的根号N的规律,后来发现这与爱因斯坦的成果以及 Black-Scholes 期权定价公式底层逻辑相通。

AI 让我们进入了一个知识更易获得的时代。正如鄂维南老师所问:大学里还能教什么?我们要在生物制药、化学信息学等领域利用 AI 寻找原创性突破。

总之,AI 既是工具也是范式。在 2025 年这个节点上,从 GDPS 大会看到的,不只是技术的迭代,更是我们对科学底层逻辑的重新审视。谢谢大家。

参考文献

[1] E Weinan. NIS-2022 AI4Sci Workshop Invited Talk[EB/OL]. https://neurips.cc/virtual/2022/64266, 2022.

[2] Dirac Paul Adrien Maurice. Quantum mechanics of many-electron systems[J]. Proceedings of the Royal Society A, 1929, 123(792): 714-733.

[3] E Weinan, Ma Chao, Wojtowytsch Stephan, et al. Towards a mathematical understanding of neural network-based machine Learning: What we know and what we don’t[R]. arXiv:2009.10713v3, 2020.

[4] Jumper John, Evans Richard, Pritzel Alexander, et al. Highly accurate protein structure prediction with AlphaFold[J]. Nature, 2021, 596: 583-589.

[5] Zhang Linfeng, Han Jianqi, Wang Han, et al. End-to-end symmetry preserving inter-atomic potential energy model for finite and extended systems[C]//Proceedings of the 32nd International Conference on Neural Information Processing Systems. New York: Curran And Associates, Inc., 2018: 4441-4451.

[6] Zhang Linfeng, Wang Han, E Weinan. Reinforced dynamics for the enhanced sampling in large atomic and molecular systems[J]. The Journal of Chemical Physics, 2018, 148: 124113.

[7] E Weinan, Han Jianqi, Zhang Linfeng. Machine learning-assisted modeling[J]. Physics Today, 2021, 74(7): 36-41.

[8] Guo Zhenqing, Lu Dahua, Yan Yujie, et al. Extending the limit of molecular dynamics with ab initio accuracy to 10 billion atoms[C]//Proceedings of the 27th ACM SIGPLAN Symposium on Principles and Practice of Parallel Programming. Seoul: ACM, 2022: 205-218.

[9] Zeng Junzi, Zhang Ding, Lu Dahua, et al. DeePMD-kit v2: A software package for deep potential models[J]. Journal of Chemical Physics, 2023, 159(5): 054801.

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、 GDPS 2025论坛现场:AI与教育者的深度碰撞
  • 二、 科学范式的迁徙:从“李约瑟之问”到深度学习
  • 三、 算法仿真、硬件主权与 AI 的第四范式
  • 四、 智慧的悖论:从《黑客帝国》到具身智能
  • 五、 从 AlphaGo 到 Diffusion Model 的演进
  • 六、 AI for Science:跨越学科的第五范式
  • 七、 数据核心与未来结语
  • 参考文献
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档