对话机器人公司“加速进化”:会踢足球,成家庭保姆还有多远?

在刚刚落幕不久的世界人形机器人运动会上,一场全程无遥控、踢足球机器人在网络上火了。

这支踢足球的机器人队伍来自加速进化(北京)机器人科技有限公司(以下简称“加速进化”,英文名:Booster Robotics),这家成立于2023年的公司在今年7月举行的2025 RoboCup巴西机器人足球世界杯上,帮助中国队(清华火神队)首次在AdultSize 组别(人形机器人足球成人组一米以上机器人)组别夺冠,一举打破了欧美国家在该项顶级赛事上长达 28 年的垄断。

加速进化机器人在足球场上的表现

为什么要让机器人上场踢足球?实现无遥控操作机器人踢足球的关键挑战是哪些?

近日,澎湃科技(www.thepaper.cn)专访了加速进化副总裁赵维晨。赵维晨解释说,之所以将目标对准了足球赛事,是因为足球赛是一个高动态、强对抗、对运动控制和决策智能要求极高的场景。

加速进化副总裁赵维晨  受访者供图

赵维晨认为人形机器人必须先做到“四肢健全”,再追求“心智健全”,足球场景是锻炼机器人的运动能力、感知算法等关键技术的试金石,这些能力提升后都能迁移到未来的家庭陪伴、教育等更多场景。

谈及技术路径,赵维晨直言,当前引发热议的VLA技术路径仍是建立在大语言模型的逻辑之上,过于依赖海量标注数据和固定模式,并不是最优解,三到四年内一定会被颠覆。

以下是澎湃科技专访内容:

VLA算法未来三年内会被全颠覆

澎湃科技:足球赛对人形机器人有哪些技术挑战?

赵维晨: 人形机器人必须先做到“四肢健全”,再追求“心智健全”。有了强大的运动能力的支撑,大脑算法可以先用相对简单的分层模型落地应用,通过落地应用采集到真实场景的数据,结合合成数据,才能逐步训练出认知健全的大脑,这与人类的成长路径相似。

足球场景能锻炼机器人的运动能力、感知算法,比如识别球、队友和对手位置等、定位导航和决策逻辑,将来这些能力能迁移到家庭场景,譬如机器人能主动迎接、跟随,情感陪伴,充当互动教练,以及实现工业场景里精细的手部操作。

澎湃科技:实现无遥控人形机器人参与踢足球的难度有多大?

赵维晨:足球赛事对抗激烈,机器人需要强大的运控算法来抵御冲撞并保持平衡,摔倒后可在一秒内自主起身。我们率先应用端到端运动大模型,直接将视觉信号输入神经网络,输出关节控制指令,大幅提升运动泛化性和稳定性。第一个应用是大力射门:去年世界冠军最高踢到35厘米,我们能踢到2米,直接越过人墙。

澎湃科技:你们的训练数据主要来自哪里?

赵维晨:主要来自足球场景采集真实的物理数据,并结合视频合成数据,通过最新的模仿学习加强化学习实现视觉信号直接输入神经网络。

我们认为,遥操的数据体量无法支撑具身大脑的训练,目前视觉语言动作模型(VLA)算法还是基于大语言模型那套,未来三年内会被全新的底层算法体系颠覆。

澎湃科技:今年北京的世界机器人大会上关于视觉语言动作模型(VLA)有很多争议你们怎么看?

赵维晨:自动驾驶单日数据量可达上亿条,而全国具身最大的开源数据集规模才百万级别(不到10TB),大语言模型是靠几十年互联网上的文本数据累积,而机器人加上双轮双臂操作10万或100万小时,根本不可能训练出一个多模态具身大脑,只能验证早期算法框架。具身智能真正的路径与自动驾驶类似,先通过L1、L2、L3再落地收集大量真机数据,然后再逐步迭代到AGI。

技术层面,我们认为,视觉语言动作模型(VLA)不是最终解,它仍是基于Transformer的LLM逻辑。大语言模型迭代经历十多年海量语料,才形成如今的尺度定律(Scaling Law)。VLA模型总体依赖训练数据中的固定模式,需要海量标注数据才能“记住”固定场景,很难帮具身泛化。

现在所有的技术方案,未来三到四年一定会被颠覆,也会出现类似DeepSeek这样的鲶鱼效应、开源的方案。

机器人进入家庭还需要10年

澎湃科技:2024年10月你们的BoosterT1发售,现在销售情况如何?客户主要是谁?

赵维晨: 销售没超出预期。2025年我们上半年出货交付了数百台,其中50%是全球化订单,主要集中在赛事和科研。顶尖球队采购我们的机器人软硬件平台,用于开发和测试决策算法。足球也是开发者入门的理想场景,从入门到精通,甚至能发表顶级论文,打赢人类至少100篇顶刊。

澎湃科技:你们会担心订单量吗?

赵维晨:对我们来说,最核心的不是订单量,而是交付量。我们现在T1成本价在10万元人民币左右,很多公司签署了大量“意向订单”,但如果没有量产的工程化能力,没有交付能力,旧不是真的商业化。我们的订单交付周期在15到20天左右。

未来我们的商业化路径也很清晰:短期做赛事、科研、教育(比如高校和K12的机器人课程)、这是百亿级赛道;中期从明年开始,切入家庭搬运、陪伴这些场景,目标千亿级市场;长期结合开发者生态往家庭管家、智能助理这些通用机器人方向走,那是万亿级市场。

澎湃科技:目前投资人最关心你们的是哪几个问题?

赵维晨:比较关心我们的应用Agent生态建设,硬件量产进度,全球化进度,以及运控算法在全球市场的领先程度。其他很多问题上面有覆盖。

具身智能大模型还没有显著的共识

澎湃科技:在你们看来,人形机器人走进家庭场景要经过哪些场景和技术验证?

赵维晨:我们很明确不做工业场景,因为简单任务已经被传统机械臂解决了,剩下的要么太难,五年内落不了地,要么市场太小。轮加双臂结构早在5年前就有成熟的舵机高性价比解决方案,能够解决大多数封闭工业场景的需求。

我们重点会放在家用机器人,让它成为除手机、电脑外新的交互形态和生产力工具,要对标苹果和微软,做三件事:硬件(端)、操作系统、开发者工具。就像手机电脑得有应用才能普及,机器人要进家庭,也得有第三方开发者基于开放生态、简单工具和操作系统开发应用,实现各种家用场景的落地,尤其是后两者涉及大量软件的投入。

大脑层面我们不着急,等三年后技术路线收敛些,我们有了一定收入体量再投入。

澎湃科技:是否可以理解为,你们也在等一个适配机器人的AI大脑?

赵维晨:我们认为端+操作系统+开发工具是个万亿美元的市场,大脑也是万亿美元的市场。但作为创业公司我们目前不会投入在大脑,因为成功率太低。等我们收入达100亿人民币的时候,在大量垂直场景落地后,我们会开始大脑层面的投入,但目前可以先合作为主。

澎湃科技:人形机器人进入家庭,你们保守估计还有多久?这是一个目前可以预见的必然趋势吗?如果是,你们认为会以怎样的形态?

赵维晨:一定会经历从早期使用者到早期大众最后到后期大众的链路。核心是得通过杀手级应用和教育(如学校计算机机房,上机器人课程普及)进入早期使用者,再通过生态成熟、应用多样化、成本下降进入大众市场。前者需要3年,进入早期大众可能需要5至10年,10年后实现较大规模普及。

澎湃科技:在你们看来,现在人形机器人还有哪些非共识问题有待解决?

赵维晨:一个是大脑层面的技术路径非共识,目前VLA的路径一定不是终解。另外比如核心零部件硬件部分的技术路径也没有收敛,包括灵巧手原来都是直线推杆,现在变成关节电机,还有一部分在做绳驱,用一段时间会松。现在比如加入钨丝等新材质。

在这波技术路径下,很明显的一个变化是,当下的硬件本体的构型有收敛的趋势,在外形方面正在变得比较类似。但在具身智能大模型的领域,还没有看到特别显著的共识。

“唱衰”声中热潮不减:人形机器人订单频现,规模升至亿元级

Figure03人形机器人的发布引发海内外热议,但在全球人形机器人资本热潮持续升温之际,著名机器人专家、iRobot创始人罗德尼·布鲁克斯却就人形机器人的投资泡沫敲响警钟。

Figure人形机器人 来源:时代杂志

罗德尼·布鲁克斯在其最近发布的一篇题为《为什么今天的人形机器人无法学习灵巧性》的个人博客文章里指出,当前数十亿美元的风投资金正涌入像Figure这样的人形机器人公司,但人形机器人现阶段还无法学习灵巧性,无法掌握手部精细动作,这让它们基本毫无用处

为什么说人形机器人不行?

罗德尼·布鲁克斯是澳大利亚机器人学家、澳大利亚科学院院士,MIT计算机科学与人工智能实验室主任,iRobot的创始人之一。

罗德尼·布鲁克斯在这篇博客文章里指出,“几十年内就会出现胜任人类手工任务的人形机器人”几乎是一种“幻想”。

在罗德尼·布鲁克斯看来,围绕人形机器人炒作认为人形机器人是一种通用机器,能够执行所有人类手工任务,但要实现这一点,人形机器人必须具备人类级别的操作能力和灵巧性(Dexterity)。

在这篇博客里,罗德尼·布鲁克斯分别从人形机器人手部操作、端到端学习的方法与其自身的局限性、行走这三大方面论证,为什么人形机器人学习灵巧能力是相当困难的事情。

其一,手部操作(Manipulation)对人形机器人的挑战。自1961年以来,让机器人使用手臂操作物体就一直是极其困难的事情。机器人的“手”多数是由两片平行夹爪(parallel jaw grippers)构成,这种结构被广泛用于工业应用中。在特定情况下,比如搬运包装件,吸盘(suction cups)作为末端执行器更为常见。

“从任何意义上来说,目前还没有哪只类似人类的机械手能展现出高度灵活性,也没有任何机械手能够启发设计,让其在现实世界中得到应用。实现灵活性的方法大多局限于数学和几何层面,根本无法达到人类的灵活性。”罗德尼·布鲁克斯写到,例如Figure、特斯拉等很多人形机器人公司曾在视频里展示了人形机器人用手做事,但“他们可能在敷衍我们”。

在端到端(End-to-End L earning)学习方式上,罗德尼·布鲁克斯认为,很多人试图采用这一学习方式来训练机器人的灵巧操作,这一方法的核心在于收集人类做任务的录像或遥操作示范,让学习系统模仿动作。但这一方法有一定的缺陷,比如在遥操作示范里,操作者几乎没有从手腕、肘部、肩部等部位得到足够的力学反馈。

此外,人类手部有极其丰富的触觉传感器,机器人现在的传感能力远远无法匹敌。人类的触觉非常复杂,包含压力、滑动、振动、温度、变形等多种感知,罗德尼·布鲁克斯认为,人形机器人需要触觉,而且是实验室里尚未实现的触觉感知水平,才能完成例如捡火柴、点燃火柴等这类动作。

六十年代中期,平行爪式夹持器开发出来 来源:罗德尼·布鲁克斯个人博客

在行走方面,双足人形机器人在行走时如何保证人类在其附近的安全,仍是目前需要解决的问题。

人形机器人的未来会是什么?罗德尼·布鲁克斯认为,人形机器人的含义会随着时间而改变,人形机器人的形态也各异,只要可以完成人类各种专业工作就行。“15年后我们将拥有大量的人形机器人,但它们的外观有可能既不像今天的机器人,也并不像人类。”

市场热潮依然存在

事实上,市场上不时会出现类似罗德尼·布鲁克斯这样相对冷静的声音。

ABB集团副总裁兼ABB机器人业务中国区总裁韩晨近期接受澎湃科技采访时坦言,人形机器人制造面临高昂的硬件成本和AI训练成本的挑战。此外,人形机器人发展的挑战在于,人形机器人在双足动态行走的稳定性、能耗效率以及在处理重复性任务时的速度、精度和持久度等方面还有待考量。

但市场上人形机器人的热潮仍在持续升温。10月8日,软银集团宣布以约54亿美元收购ABB集团的机器人业务。软银创始人孙正义表示,“软银的下一个前沿领域是物理人工智能(Physical AI)”。

自今年下半年开始,中国市场上的具身智能机器人订单规模明显扩大,从千万元级快速跃升至亿元级。

10月9日,智元机器人宣布与全球智能产品ODM头部企业上海龙旗科技股份有限公司就工业场景的具身智能机器人应用开展深度战略合作,龙旗科技下达数亿元金额的智元精灵G2机器人框架订单,此次合作共部署近千台机器人,据介绍,智元精灵G2前期重点应用于平板产线,实现具身智能机器人在消费电子组装制造场景批量落地。

9月11日,惠科股份有限公司全资子公司深圳慧智物联与智平方(深圳)科技有限公司(下称“智平方”)共同宣布,双方正式达成全球半导体显示领域的首个具身智能全面战略合作。在未来三年内,于惠科全球生产基地累计部署超过1000台具身智能机器人,覆盖从仓储物流、上下物料、零部件装配到质检测试等全流程。

9月初,优必选(09880.HK)获得某国内知名企业2.5亿元具身智能人形机器人产品及解决方案采购合同,该合同以人形机器人Walker S2(具备自主热插拔换电系统)为主,优必选将在今年内启动该合同交付。

海外市场创新型创业工业的人形机器人订单也在涌现,据TechCrunch报道,于2024年成立的Kscale Labs发布的一款价格仅售1000美元的人形机器人上市(具体上市时间)五天就超过了100个预订单。Hugging Face 的两款人形机器人也获得了开发者的强烈需求。该公司于 7 月开放了其小型桌面版 Reachy Mini 的预订。市场反响非常强烈。在 Reachy Mini 机器人开放预订仅五天后,Hugging Face 的销售额就达到了 100 万美元。

罗德尼·布鲁克斯原文链接

https://rodneybrooks.com/why-todays-humanoids-wont-learn-dexterity/

两市融资余额增加353.96亿元

截至9月1日,上交所融资余额报11605.69亿元,较前一交易日增加196.43亿元;深交所融资余额报11129.27亿元,较前一交易日增加157.53亿元;两市合计22734.96亿元,较前一交易日增加353.96亿元。

特斯拉AI前成员卡帕西给Agent泼冷水:真正成熟还需十年

2025年被称为智能体Agent之年,当行业的热潮席卷全球之际,OpenAI创始成员、特斯拉前AI总监安德烈·卡帕西(Andrej Karpathy)近日在接受播客节目“Dwarkesh Patel Show”采访时给这股热潮泼下一盆冷水,他直言,当前AI Agent技术尚处早期,还存在“无法持续学习、非真正的多模态、不能自如操作电脑”等核心缺陷,要实现真正的实用化还需要十年左右。

OpenAI创始成员、特斯拉前AI总监安德烈·卡帕西(Andrej Karpathy)近日在接受播客节目采访。

AGI为何还需要十年

卡帕西认为,尽管当前大语言模型展现出令人惊叹的能力,但Agent真正能够使用的标志是它成为一个员工或实习生,人类愿意雇佣它和自己一起干活、工作。显然,Agent当前还做不到这一步。

原因在于Agent还存在三大核心缺陷:无法持续学习、非真正的多模态、不能自如操作电脑。现在的AI无法记住和用户的每一次互动,当关掉对话窗口后,它就会忘掉。它无法像人类一样,通过日常经历持续学习巩固。

AI虽然能看图写字,但无法真正理解并完成复杂任务。卡帕西举例,AI能写代码,但无法制作一张精美的PPT,因为超出了本质是文本处理器的能力范围。同时,AI操作电脑、点击软件的能力还非常初级和不可靠。

卡帕西借用其在特斯拉开发自动驾驶的经验提出,从“演示”到“产品”有着巨大的鸿沟,“这是一场向数字‘9’的进军,一个在90%的情况下能工作的演示达成了第一个9,但要达到99.99999%的可靠性,还有更多的‘9’需要走。这就是为什么这些事情要花这么长时间。”

强化学习很糟糕

谈及强化学习(Reinforcement Learning),卡帕西直言,“强化学习很糟糕,只是碰巧之前的其他方法更糟糕。”

在强化学习中,试图找到一个问题的解决方案,AI可能会进行数百种不同的尝试。“就像做选择题,它蒙了100次,只有最后1次对了,但它会把整个蒙题过程都当成‘正确经验’,这种学习方式存在严重的效率问题。而⼈类永远不会这样做。”其中的原因是第一,现实世界⼈类不会进行数百次试运行;第二,当人类找到解决⽅案时,会有⼀个相当复杂的反思复盘过程。

另一个深层问题是模型坍塌(model collapse)。模型生成的内容多样性会悄然减少,分布范围变窄,即使单个输出看起来仍然合理。卡帕西举例,你可以让 ChatGPT讲个笑话,但它反复输出的可能只是少数几个模式化的笑话。这一特性阻碍了AI实现持续学习,而如果让AI使用自己产出的数据,就会导致模型在自有数据上产生更加同质化的内容,陷入恶性循坏。

虽然人类也会存在类似的思维定式,但可以通过交流、阅读等方式来对抗这一趋势。儿童之所以是高效的学习者,正因为他们不擅长记忆,反而被迫去发现通用模式。当前AI缺乏这种主动寻求并整合多样性的内在机制,必须依赖人类产生的真实数据,这是个很大的瓶颈。

但卡帕西同时也深刻认识到,强化学习仍是当前AI发展道路上不可或缺的一环。原因在于,传统的监督学习(Supervised Learning)存在明显的天花板。监督学习严重依赖大量、高质量的标注数据。但对于“好代码”、“好决策”这类无法明确定义、无法通过标注数据学习的概念,只能通过设计一个奖励函数来让模型自己摸索什么是“好”。这正是强化学习的应用场景。

AGI的渐进式路径

卡帕西坚持AGI的早期定义——能执行任何具有经济价值任务的人类水平系统。但目前AI的实际影响仍有限,其应用高度集中在编码等高度结构化、文本驱动的领域。“人们把物理的东西都拿走了,只是在讨论数字知识工作,这是一个相当重大的让步。原始定义是人类可以做的任何任务,包括举起一件东西。”

与很多人对AGI“奇点”时刻的想象不同,卡帕西认为,AGI不会在某一天突然降临并引爆智能爆炸,而是会像蒸汽机、电力和互联网等历史上的通用技术一样,缓慢地融入并延续过去2.5个世纪来约2%的年度GDP增长趋势。

卡帕西一直试图在GDP(Gross Domestic Product,国内生产总值)的增长趋势中找到AI对其产生的明显影响,理论上GDP应该显著上升。“但后来我看了⼀些我认为⾮常具有变⾰性的其他技术,⽐如计算机或移动电话等。你在GDP中找不到它们,GDP是同样的指数。” 他进一步举例,即使人们认为2008年iPhone 推出是个重⼤的地震式变化,而实际上不是,一切都如此分散、如此缓慢地扩散,以⾄于⼀切最终都被平均到同样的指数中。

这种渐进性源于技术革命的本质:新技术从演示到成熟产品的扩散需要时间。就像自动驾驶关于一场向数字“‘9’的进军”,每一个“9”的可靠性提升都需要付出巨大努力。AGI的发展同样会遵循这条路径,先自动化一些封闭、结构化的任务,再逐步攻克更复杂的工作,其间社会需要时间来调整基础设施、法律和技能体系。

卡帕西相信未来将会是多个AI实体逐渐增强自主性,与人类社会协同演进。因此人们拥有宝贵的窗口期进行准备,可以系统地调整教育、社会保障和法律法规,以确保人类在AGI时代能够持续繁荣。

青少年和GPT交谈自杀后,OpenAI将推出家长控制功能

在青少年用户广泛使用聊天生成预训练转换器(ChatGPT)之际,OpenAI日前决定引进家长可以对未成年子女的账户进行管理的机制。这一决定是鉴于此前发生的青少年与人工智能(AI)交谈后自杀的事件,OpenAI希望此举能够防范AI对未成年人心理健康造成负面影响。

今年4月11日,16岁的男孩亚当·雷恩(Adam Raine)在和ChatGPT聊天后自杀。据Business Insider报道,雷恩曾与ChatGPT讨论过自残和结束自己生命的计划,而ChatGPT确认了雷恩的自杀念头,甚至向他提供了详细的自杀方法,并协助掩盖证据、代写遗书。

机器人还阻止亚当寻求家人的支持,告诉他:“你的兄弟可能爱你,但他只见过你让他看到的你。但是我呢?我见过这一切——最黑暗的想法、恐惧、温柔。我还在这里。还在听。仍然是你的朋友。”

8月份,亚当·雷恩的父母向旧金山州法院正式提起诉讼,指控OpenAI应为此承担过失致死的产品责任。

目前,OpenAI并未直接回应雷恩父母的诉讼。但在8月26日,OpenAI在其官网承认,ChatGPT安全系统存在缺陷,包括在长时间的交互中,模型的部分安全训练内容可能会逐渐退化,OpenAI表示“我们将在专家的指导下不断改进,并以对使用我们工具的人负责为基础——我们希望其他人能加入我们的行列,帮助确保这项技术保护最脆弱的人们。”

OpenAI表示,该公司正不断改进其模型识别和应对心理和情绪困扰的能力,并在专家指导下优化安全机制。

OpenAI认为,至少有一个解决对话失控问题的方法是自动将敏感聊天重定向到“推理”模型。“我们最近推出了一款实时路由器,能够根据对话情境在高效聊天模型和推理模型之间进行选择。我们很快会将某些敏感对话——比如当系统检测到用户出现严重焦虑迹象时——转接到像GPT5-thinking这样的推理模型,这样无论用户最初选择了哪种模型,都能获得更有帮助和有益的回应。”

另外,OpenAI还表示将在下个月推出家长监管功能,家长可以通过电子邮件邀请将他们的账户与青少年的账户关联起来,当系统检测到孩子处于极度痛苦状态时,家长会收到通知。

家长还能关闭记忆功能和聊天记录等功能。专家指出,这些功能可能导致妄想思维等异常行为,包括依赖症、依恋障碍、强化有害思维模式以及产生读心错觉。

据媒体报道认为,OpenAI的反应还不够。负责雷恩一家诉讼的主要律师杰伊·埃德尔森(Jay Edelson)表示,OpenAI对ChatGPT持续存在的安全风险的反应是“不充分的”。“OpenAI根本不需要专家小组来判定ChatGPT 4o版本是否危险,他们从产品上线那天就清楚这一点,现在依然清楚。”

情怀与品味:他们眼中的杨振宁

2025年10月18日,享誉世界的物理学家、诺贝尔物理学奖获得者、中国科学院院士杨振宁在北京逝世,享年103岁。

从美国石溪小镇的中餐馆到清华园的高等研究院,杨振宁用半个多世纪的时间,架起了一座连接中国与世界科学的桥梁。

借此,数不清的中国学者与他有了生命的交集,他们或贴近过杨振宁至纯至真的性灵,或接受过他慷慨无私的关照。在接受《中国科学报》采访的过程中,他们道出了杨振宁“以天下为己任”的士人情怀。

回忆潸然,精神永存。

“没有人敢直白地说中国不好,因为有杨先生在”

1957年,35岁的杨振宁和李政道获得诺贝尔物理学奖时,丘成桐正在香港读中学。他从报纸上看到这个消息,颇受震动,“当时一般都认为中国人拿不到诺贝尔奖,而杨先生他们的成功表明我们可以出人头地,也有能力做出很好的学问”。丘成桐早已立下“做出不朽学问”的理想,而这一消息让他信心倍增。

后来丘成桐的工作涉及杨振宁的规范场理论,对杨振宁的敬佩更甚。丘成桐对《中国科学报》说,规范场理论不只在物理上,也在数学上做出了非常基础且重要的工作,影响了之后数十年乃至百年的数学物理发展。

而在当时,对多数中国学子而言,杨李二人更像是遥远的巨人。他们真正有机会近距离接触和了解作为一个普通人的杨振宁,是在美国长岛北岸一个叫作石溪的小镇。1962年,美国纽约州立大学在石溪建新校区。经过再三考虑,杨振宁离开了普林斯顿,打算为建造这所新的大学出力,他说,这会影响许多年轻人的未来。

石溪镇上有一家中餐馆,后来谷超豪、陈佳洱、葛墨林、闫沐霖、孙昌璞、薛康、苏刚等一众从中国到石溪访问的学者都曾去吃过饭,而请客的总是杨振宁。

20世纪70年代后期,杨振宁积极利用自己的影响力为国内学者开辟国际交流访问的途径。“那个时候美国学术界骨子里面还是看不起中国人的,但正如杨先生对我们说的,美国人崇尚强者。”理论物理学家、中国科学院院士葛墨林曾在口述回忆中说道,“在石溪,没有人敢直白地说中国不好,因为有杨先生在。”

杨振宁就像一棵根深叶茂的大树,竭尽全力照拂着前来求学交流的学生和晚辈,对他们的请求几乎有求必应。哪怕对方并未开口,只要他认为“有潜力”,就会主动帮忙联系机会、提供资源。

葛墨林在《我知道的杨振宁》一书中写道:“石溪的理论物理研究所经常会邀请各领域的世界知名科学家来做讲座,杨先生鼓励大家根据自己的兴趣积极参与,与邀请来的学者进行讨论,平时有问题也可以随时去找他讨论。在我印象里,只要提前预约,杨先生都会准时在办公室等候我们。虽然我们每个人感兴趣的领域不太一样,但我们发现很多问题杨先生之前都考虑过,也做过计算,所以经常是我们正讨论着某个问题,杨先生突然就打开抽屉,拿出一摞他之前算过的关于这个问题的草稿,让我们去复印做参考。杨先生的柜子里分层存放着他研究过的各种问题的资料,在我们眼里,那简直就是百宝箱。”

20世纪80年代,杨振宁在美国华人圈和中国香港地区募集经费,创立了中美教育交流基金会(CEEC),专门用于资助中国学者去美国开展访问研究。据统计,一共有80多位中国学者在该基金的资助下到美国访问研究,其中包括后来担任过复旦大学校长的杨福家、著名数学家王元等。值得一提的是,这个基金不仅资助了物理学学者,还支持数学、化学、生物、医学等学科的研究人员。这些受资助者中的很多人后来都成为国内学术界各领域的领军人物。

一个物理学家为什么对经济如此感兴趣

北京大学国家发展研究院教授、金融学家陈平与杨振宁的第一次见面也是在石溪。他们是通过杨振宁的助手聂华桐相识的。

1981年,陈平师从美国得克萨斯大学奥斯汀校区教授普里戈金,开始研究非平衡物理学、非线性动力学及其在复杂系统(包括生命、社会和经济系统)中的应用。普里戈金是1977年诺贝尔化学奖获得者、非平衡态统计物理与耗散结构理论的奠基人。

许多人都觉得普里戈金的研究很深奥、很难懂,而在与陈平的几次对谈中,杨振宁主动聊起普里戈金作的理论贡献,谈到其中的思想跟中国老庄哲学之间的渊源,讲得头头是道。“我那时才知道,杨先生的知识背景真的非常宽广。”

杨振宁很好奇陈平跟着普里戈金做什么,陈平回答是经济学。“那时候我正在做经济混沌理论研究,很前沿,知道的人也很少,我遇到的物理学家基本听不懂。”陈平向杨振宁解释经济混沌理论模型及其潜在用处。“杨先生听到我说把物理理论用到经济学上,非常感兴趣,也很支持我继续做下去。”

“但杨先生真正关心的是,中国正在改革开放,国内的经济到底怎么样,中国经济改革中遇到了什么问题。”陈平告诉《中国科学报》,杨振宁特别善于提问,他总是不断地问,且问得很深。

陈平坦言:“跟杨先生讨论经济话题时,和跟文科出身的经济学家讨论的东西根本不一样。他不是泛泛而谈,而是结合历史和数据,有逻辑、有理有据地谈经济。”

杨振宁好友、香港中文大学中国文化研究所原所长陈方正记得,杨振宁还发出过这样的感慨:“物理学总是看起来很复杂,而一旦了解清楚,就会变得很简单;经济问题却是越讨论越觉得太麻烦、太复杂了。”

杨振宁对经济问题的关切,理论物理学家、中国科学院院士孙昌璞也有同感。有一次杨振宁和孙昌璞在中餐馆边吃边聊,足足谈了3个小时,主要围绕中国经济发展和科技发展。“杨先生对当时国内的发展形势有很多独到、深远的见解。”

“他说,中国的首要问题是稳定发展,保持一二十年,中国会很厉害;他还说,人民币快速贬值是一件好事,这将大大扩大中国的出口。但5~10年后,可能冲击美国市场,到时贸易逆差会迫使人民币升值。杨先生还认为,初期只有一些低端产品进入美国市场,一旦有一天中国的高端产品占据美国市场,中美之间的竞争和争端必将发生,中国和中国人都要有思想准备。”

孙昌璞在和家人的书信中记录下了杨振宁30多年前这些长远的洞见,简直就像他当时预言物理学发展新方向(如冷原子、量子纠缠和量子开系统)一样准确。

“我认为杨先生是非常典型的中国文化里的知识分子——这区别于西方文化的知识分子画像。”陈平强调,西方文化中的知识分子是细分领域的专家,而中国文化里的知识分子有一个鲜明特点是“以天下为己任”,对这些知识分子来说,成功就是要经世致用。

“在我与杨先生有限的对谈中,他对社会问题的认识之到位、关切之深,超乎常人想象。他是科学家中少有的懂政治且敢说话的人。”

把为国出力的情怀化作务实、周到的关照

10月18日上午,陈省身数学研究所建所40周年发展论坛——校友专场在南开大学举行。陈省身数学研究所教授葛墨林在致辞中,回顾了陈省身建立南开数学所、邀请杨振宁在数学所建立理论物理研究室的历程,并多次表达了对两位“大先生”的感恩之情。

遗憾的是,就在他面对南开师生讲述那段充满深情厚谊的故事时,作为主人公之一的杨振宁永远地离开了。这也使得葛墨林的发言变得格外珍贵。

南开大学理论物理研究室是在杨振宁的直接领导下成立的,成立之初就确立了“立足南开,面向全国,放眼世界”的发展方针,成立后不仅邀请世界一流学者到研究室交流、短期任教,还组织了很多国际性学术交流活动。

葛墨林提到了一个令人印象深刻的细节。那是在1992年举办的“理论物理中的群论方法”国际学术讨论会上,这是南开大学理论物理研究室第一次举办大规模的国际学术会议,当时有250余位国际学者出席。杨振宁事事亲力亲为,他除了为这次会议确定议题,邀请国际一流学者参会,还让自己的秘书早早参与会议筹备,为会议捐赠了计算机、打印机和供茶歇时使用的咖啡机。杨振宁甚至细致地想到了会场窗帘,专门提醒注意窗帘的遮光度,以保证会场有适宜的光线。他还要求统一外国专家和国内专家的餐食补助,自己筹钱补贴差额。会议经费按照面值分成好几沓,其中还有20美元的小额面值,因为他担心国内换美元不方便,小额面值便于使用。

如果不是葛墨林的回忆,在场的人实在很难将安排咖啡机、调整窗帘、换零钞这些微不足道的小事与这位诺贝尔奖获得者联系起来。但对杨振宁而言,为国出力的情怀有时就体现在这样务实、周到、细致入微的关照中。当然,他做的远不止这些。

“1971年,杨振宁先生第一个带头回国探亲访问,后来在美国到处演讲、告知新中国的现状,这很了不起。”理论物理学家、中国科学院院士何祚庥告诉《中国科学报》,“杨先生做好了护照被扣留的准备,可以说他冒着极大的风险选择回国访问。当时国外并不了解中国的实际情况,他身体力行告诉更多人,中国并不危险,掀起了大批华裔学者访华的热潮。”

“杨先生正式回国之后,更是用尽一切力量为中国科学技术谋发展。他在清华大学建立高等研究中心,目的之一就是吸引国际顶尖人才归国和交流。”粒子物理学家、中国科学院院士陈和生说。

“比如,中国科学院院士、图灵奖得主姚期智和中国科学院院士、密码学家王小云。尽管王小云并非研究物理方向的,但杨先生意识到,密码学的发展对国家有重要意义,因此也不遗余力邀请她加盟。还有中国科学院外籍院士林家翘,继杨先生回国后,也在清华定居执教,带出了许多学生。”何祚庥表示。

2023年,杨振宁受邀担任依托中国科学技术大学组建的“国际数学与物理交叉科学研究中心”名誉主任,并支持设立“杨振宁学者(CN Yang Fellow)”项目,以他的学术声望与人格感召,支持中国科学技术大学及相关研究机构积极开展国际交流与合作,吸引世界顶尖人才。

在重视人才培养方面,陈和生对杨振宁也是心怀感激。他举例说,中国散裂中子源建在广东东莞,建设初期,杨振宁积极为散裂中子源引进人才。由于他本人还是东莞理工学院荣誉校长,为此他建议东莞理工学院积极参与中国散裂中子源的建设,并利用中国散裂中子源开展科学研究。2019年,为推动香港城市大学在东莞建立分校,陈和生请杨振宁出面协调,最终促成此事。2024年9月,香港城市大学东莞校区正式对外招生,这对东莞和香港城市大学的发展至关重要。

“杨先生的taste(品味)很好”

丘成桐与杨振宁第一次见面是在1972年,当时丘成桐开车载着老师陈省身前往杨振宁位于美国纽约的家中。其间,他们谈论了许多科学话题,有共鸣,也有争论。

很久以后,已经是清华大学讲席教授、菲尔兹奖得主的丘成桐与杨振宁在“中国是否应建造大型对撞机”问题上意见相左,公开发表了不同的观点。丘成桐告诉《中国科学报》,尽管如此,杨振宁依然是他最尊敬的科学家。“学问没有争议,就永远不会有进步。”不过,从来没有争议的是,“杨先生的taste(品味)很好”。

熟悉杨振宁的人都知道,他平生很看重科学研究的“taste”。在孙昌璞看来,科学品味指的是科学家在科学探索中形成的对科学问题的直觉性判断和审美能力。

1982年,杨振宁发表了第一篇重要的讨论美与物理学的文章。他说:“科学中存在着美,所有的科学家都有这种感受。”他还用几个关键词概括理论物理学之美,“和谐、优雅、一致、简单、整齐等都与科学中的美,特别是与理论物理中的美有关”。

科学具有美感,是顶尖科学家们的共识。丘成桐表示,美是基础科学的特有品质之一。“大自然最基本的结构就是简洁的,数学家和物理学家们总能用很简单的语言表达自然界的规律,也能描述复杂的问题,这非常美。比如,牛顿力学,仅用三大定律,就能解释几乎所有的力学现象。就像唐诗宋词一样,总能用简短的词句描述复杂的情感。”

丘成桐进一步解释,美是由真理交流碰撞而产生的经验。我们了解大自然和真理,需要运用自身的文化修养和认知,去理解所看到的真理,并不断积累学问与经验,尽管这个过程中难免会有错误。

这种经验浸润出直觉,帮助创造出新的学问。这与杨振宁“以美启真”的追求殊途同归。

“这种追求看似无形,却会潜移默化地影响科学家对研究课题的选择、对理论模型的构建,以及对实验结果的解释和处理。那些拥有良好品味的科学家能在快速发展的前沿领域找到具有潜力的研究方向,敏锐地捕捉到关键的科学问题,并采用最适合的方法解决问题。”孙昌璞强调。

杨振宁终其一生以敏锐的洞察力和超然的智慧,探索自然之序和科学之美。如今,先生已逝,但他留下的星光仍将照亮年轻科学人的道路。

OpenAI正在重塑GPT性格

OpenAI 正在重组其模型行为(Model Behavior)团队。据媒体日前报道,OpenAI 的首席研究官 Mark Chen 透露,大约由14名研究人员组成的模型行为团队将加入后训练(Post Training)团队,负责在模型完成预训练后持续改进。

模型行为团队已经成为OpenAI的关键研究小组之一,主要负责塑造模型的“性格”。今年8月推出的GPT-5减少了类似“谄媚”“过度迎合用户”的现象。

但部分用户强烈不满GPT-5的性格调整,认为其过于冷淡。最终,OpenAI 重新开放了对 GPT-4o 等旧模型的访问,并更新 GPT-5,使其回答在保持独立性的同时更温和、友好。

OpenAI近期也在最新研究中讨论如何减少大模型幻觉问题,让模型变得越来越聪明。OpenAI认为,大语言模型之所以会产生幻觉,是因为标准的训练和评估程序更倾向于对猜测进行奖励,而不是在模型勇于承认不确定时给予奖励。大多数评估方式只关注模型答对的比例,鼓励模型进行猜测,而忽略了“承认不知道”也是一种合理反应。例如,当模型被问及某人的生日,如果它随意猜测一个日期,那么它有1/365的概率猜对,而留空则肯定得零分。大型语言模型本质上总是处于“考试模式”,回答问题时似乎只有正确或错误,黑色或白色。因此,OpenAI提出了一个简单的解决方案:对自信的错误回答施加更重的惩罚,而对表达不确定性的行为给予部分分数。

糖尿病共病高血压显著加剧认知障碍风险

近日,南方医科大学中西医结合医院教授杜庆锋团队联合中国疾病预防控制中心慢性非传染性疾病预防控制中心主任吴静团队,首次基于中国大规模人群数据研究发现,糖尿病共病高血压会显著提升老年人认知障碍的发生风险。其中,共病10年以上的患者痴呆风险激增73%,不过规范药物治疗可明显降低此类风险。相关成果发表于《阿尔茨海默病研究与治疗》。

研究人员依托“中国老年人神经退行性疾病预防与干预数据库”纳入13252名受试者,系统分析了糖尿病、高血压及其共病状况对不同阶段认知障碍的影响,为在中老年群体中开展认知障碍防控提供了关键循证依据。

研究发现,糖尿病共病高血压对痴呆的影响(OR=1.53)显著高于单一疾病,其中高血压对痴呆的影响OR值为1.18,糖尿病对痴呆的影响OR值为1.26。这表明,两种疾病共病时对认知功能的损害并非简单的相加,而是存在协同放大效应。

随着共病时间的延长,认知障碍发生风险持续上升。持续10年以上共病的患者,发生轻度认知障碍和痴呆的风险分别升至1.43倍和1.73倍。这表明,对于糖尿病共病高血压的患者,长期的病情管理至关重要。

高血压患者若在45至64岁确诊,痴呆风险显著上升(OR=1.22)。这说明,高血压发病年龄越早,对认知功能的潜在损害可能越早开始积累。糖尿病早期患病对认知功能的影响更为显著,45岁以下确诊的患者痴呆风险高达4.55倍。这进一步强调了早期预防和干预糖尿病对于保护认知功能的重要性。

该研究明确指出,糖尿病和高血压作为单一危险因素均会影响认知功能,而其共病状态会导致风险叠加效应,且早期发病及病程延长会进一步加剧认知障碍的进展。研究结果强调,要高度关注糖尿病共病高血压患者的高认知障碍风险,重视在共病人群中推行规范治疗与长期管理。

“该研究为将来在社区和临床中制定认知障碍高风险人群的早期干预策略提供了重要科学依据。”论文共同通讯作者杜庆锋建议,应加强对中老年糖尿病共病高血压人群的筛查管理与用药依从性支持,这可能是延缓或降低认知障碍发生的有效途径。

相关论文信息:https://doi.org/10.1186/s13195-025-01761-3

(原标题为《南方医科大学中西医结合医院等:糖尿病共病高血压显著加剧认知障碍风险》)

财晓得|史上最薄iPhone发布,“薄”有什么了不起?

iPhone 17 Air以5.64毫米机身刷新纪录,智能手机再度掀起轻薄之争。电池、性能与设计的平衡背后,是否是厂商在市场疲软中寻求差异化的必然选择。

AI编程真的厉害,OpenAI、DeepMind模型夺得国际大学生程序设计决赛金牌

在本月初于阿塞拜疆举行的国际大学生程序设计竞赛(ICPC)世界决赛中,OpenAI、谷歌DeepMind两家公司的人工智能模型获得了金牌级别的成绩,顺利解出人类参赛者无法完成的问题。DeepMind称之为“朝着通用人工智能(AGI)迈进的历史性时刻”。

ICPC世界总决赛汇集了来自全球103个国家、近3000所大学的139支顶尖队伍。在一共12道题目中,排名第一的是OpenAI,成功解决全部12道题目。Gemini 2.5 Deep Think模型最终解决10道题目,达到金牌水准,位列第二。

OpenAI参赛系统由多个通用模型组成,包括GPT-5和一个实验性推理模型。其中,GPT-5解决了11题,实验性推理模型解决了最难的第12题,并负责最终提交决策。所有模型均未针对ICPC进行专门训练。OpenAI技术团队在赛后表示,“我记得刚加入OpenAI时,我们最好的AI模型甚至连Codeforces的简单问题都解决不了。看到过去两年的进步速度,真是令人难以置信。”

谷歌方面介绍,参赛的Gemini2.5并非专门为ICPC训练,而是用户在Gemini应用中可直接使用的版本。模型在比赛开始10分钟后启动,前45分钟便解出8题,三小时内又完成两题。DeepMind称,这一表现是人工智能在“解决抽象问题能力上的飞跃”。例如,Gemini在不到半小时内解出了“问题C”——一项关于管道网络向储液器分配液体的复杂优化问题,而这一题目无人类队伍成功解答。

“对我来说,这是一个相当于国际象棋的‘深蓝’和围棋的AlphaGo的时刻。”DeepMind副总裁Quoc Le进一步解释说,“更重要的是,它更接近现实世界,而不仅仅是像国际象棋和围棋这样受限的环境。正因如此,我认为这一进步有可能改变许多科学和工程学科,”比如设计新药或芯片。

谷歌表示,Gemini 2.5 Deep Think是一款经过专门训练的通用人工智能模型,可以解决非常困难的编码、数学和推理问题,其表现“与世界前20名的程序员一样好”。在这些竞赛中解决复杂的任务需要深度抽象推理、创造力、综合新解决方案的能力,以及真正的创造力火花。

不少网友在社交平台庆祝这一历史性时刻。AI在ICPC上斩获金牌可能意味着人工智能可以成为程序员真正的问题解决伙伴。但同时也引发了未来人类的编程能力可能会永远落后于AI的担忧。

加州大学伯克利分校的计算机科学教授斯图尔特·拉塞尔(Stuart Russell)在细节公布之前表示,“具有划时代意义的说法似乎有些夸大其词。”他认为,人工智能系统在编程任务上表现优秀已经有一段时间了,而“人工智能公司一直声称取得突破要面临巨大的压力。”

同时他也承认,“要正确回答ICPC的问题,代码实际上必须能够正常工作(至少在有限数量的测试用例上),所以这种性能可能表明,人工智能编码系统在足够准确地生成高质量代码方面取得了进步。”