两市融资余额增加101.66亿元

截至12月1日,上交所融资余额报12486.17亿元,较前一交易日增加52.82亿元;深交所融资余额报12105.22亿元,较前一交易日增加48.84亿元;两市合计24591.39亿元,较前一交易日增加101.66亿元。

专访|“北欧之眼”基金创始人拉斯·特维德:人工智能泡沫可能在未来两三年出现

全球资本市场正经历以人工智能为核心的新一轮科技投资热潮。

一方面,科技投资以罕见强度重塑增长结构,在传统行业承压背景下,科技部门以高强度资本开支扮演了类财政刺激角色。另一方面,在财政扩张与隐性货币化预期下,市场对流动性收缩的敏感度下降,估值扩张呈现典型泡沫动力学特征。

但在投资热潮之外,另一种因AI技术发展带来的职业困境或许更贴近普通人的现实。AI提升了基础性工作的执行效率,工作助手看似“变多了”,但KPI、考核的压力却越来越高,“为什么我们比以前更累?”成为职场白领们共同的职业困境。

全球知名投资人拉斯・特维德(Lars Tvede,下称拉斯)日前在接受澎湃科技(www.thepaper.cn)专访时指出,短期内不需要担心AI有泡沫,但泡沫可能会在未来两三年内出现。目前AI相关投资(约占全球GDP的2%)仍处于绝对合理的区间,远低于历史上如19世纪铁路热潮时期的泡沫水平。他认为,仅以当前可见的商业模式来评判AI未来的经济潜力,是一个巨大的误判。未来几年,局面将截然不同。

全球知名投资人拉斯・特维德(Lars Tvede)

拉斯是一位横跨金融、科技与未来研究领域的丹麦学者、连续创业者。2016年,他与人共同创立了风险投资基金“北欧之眼”(NordicEye),该基金成为北欧有史以来最赚钱的风险基金之一。他也是《超智能与未来》一书的作者。

在这部著作中,拉斯・特维德结合了其对长周期经济规律的深刻洞察与对前沿科技的敏锐捕捉。他提出,人类社会正站在指数级变革的边缘,技术进步不再是线性的,而是呈现出一种自我强化的“超趋势”。书中重点探讨了机器智能如何跨越奇点,从单纯的计算工具演变为具备自主进化能力的“超智能”体,以及这一变革将如何重塑商业模式、劳动力市场乃至人类文明的演进路径。这些基于历史维度与未来视角的论述,正是他研判当下AI泡沫是否成立、以及未来技术将走向何方的逻辑基石。

以下是澎湃科技对话投资人拉斯·特维德(Lars Tvede )内容:

澎湃科技:我们怎么理解超级人工智能?具体指什么?路径远不远?

拉斯·特维德:我倾向于把超级智能(super intelligence)和超智能(hyper intelligence)区分开来。超级智能(super intelligence)是指AI在某些关键领域显著超越人类的能力,它无需样样精通,但在重要任务上表现突出。而超智能(Hyper intelligence)则意味着AI进入自我迭代的阶段,不再需要人类主导开发,其进化速度将远超人类理解范围。

目前AI的进步仍主要由人类推动,但2018至2020年间已出现自我改进的雏形,这种能力正在指数级增长。一旦机器自主改进成为主流,其发展将彻底脱离人类的认知框架。

我认为2024年至2028年将是人类史上最惊心动魄的技术爆发期。同时,AI处理成本每年都会下降90%左右,计算效能每3、4个月就能翻一番,远超摩尔定律的速度。比如,AI工具平台WalkingFace上的模型数量已达220万,每过5至6个月就翻倍。这种技术扩张速度是前所未有的。

澎湃科技:在你看来,现在AI的热潮是否会演变成泡沫?

拉斯·特维德:我认为目前并不存在AI泡沫。当然,任何新兴领域都伴随风险,但当前的情况与过去的泡沫时期有本质区别。

首先,从投资规模看,当前AI相关投资占全球GDP的比重约为2%。这个数字虽然已经高于互联网泡沫时期的水平,但远低于19世纪铁路建设热潮的占比。与历史上那些真正形成泡沫的投机狂潮相比,目前的投入水平处在绝对合理的区间。 

更重要的是,AI技术本身具有革命性的特质。它不像铁路或公路,建成后性能就固定了。AI工厂在初始投入后,能通过软件的自我迭代不断升级,这就像铁路建成后能自行延长、提升效率一样。这种自我改进的能力在2018至2020年期间开始显现,目前正在加速,其效率提升的潜力是传统基础设施无法比拟的。 

谈到市场供需,情况更是与互联网泡沫时期的光纤产能过剩完全相反。现在的情况是核心资源供不应求。英伟达和AMD的芯片产能根本无法满足市场需求,数据中心都在满负荷运转。

还有些人担心巨头之间的“循环融资”会带来风险,但我认为这种模式的本质是健康的风险共担。微软、谷歌这些公司的AI支出接近其强大的自由现金流,它们资金充足,发债更多是出于财务优化而非生存需要。唯一风险较高的是OpenAI这类缺乏多元现金流的公司。

这与2000年互联网泡沫破裂前的情景不同,当时企业盈利已连续两年下滑,利率却在攀升。而现在,我们是盈利强劲增长,同时利率在下降,这是一个非常有利的宏观环境。 

只有在一种情况下它们才可能会崩盘,即股价从现在开始大幅、快速上涨,如果接下来它们涨得很猛、涨得很高,走势会变成直线上升,接着就会出现反转、掉头向下。 但现在的股价并没有出现完全垂直的涨幅,而且它们的估值也不算昂贵。

所以,我的判断是,泡沫最终可能会在未来两三年出现,但不是现在。

澎湃科技:在你看来,像OpenAI这类大模型公司的盈利、商业化难题怎么化解?

拉斯·特维德:未来AI公司不能只依赖大模型,而是需构建护城河,比如打造垂直行业AI操作系统、建立拥有数据围墙花园的私有云部署或生成式工作流系统。

另外,个人AI将是关键方向——它存在于个人设备中,通过长期学习用户习惯形成不可替代的助手。

顶尖企业的团队都很聪明,他们已经意识到了这些趋势且在积极布局。因此,仅以当前可见的商业模式来评判AI未来的经济潜力,是一个巨大的误判。未来几年,局面将截然不同。

澎湃科技:就在访谈的这几天,伊尔亚·苏茨克维(Ilya Sutskever)在接受外媒采访时也提到一个观点,他认为大模型的预训练(pre-training)阶段已经耗尽了数据,可用的数据非常有限,他认为,scaling law的阶段已经结束,AI将会回到以科研驱动的路径。我想听听你的观点。

拉斯·特维德:关于 scaling law,我也听到了很多讨论。我想从两个方面来谈这些问题。

第一点,与其只是不断扩大已有的算力基础设施,我们其实可以不再只依靠把模型“做大”、堆算力,而是让AI系统内部出现更多专业化、分工明确的“小模块/小专家”(export system),并不单依靠更大的规模。这其实需要更聪明的结构和更聪明的算法,这相当于重新回到了大脑的结构。

第二点,数据,当前用于训练模型的数据主要来自互联网。但未来的模型将更多依赖由 AI 自身生成的数据,即合成数据(synthetic data)。尽管“合成数据”这个词听起来像是虚构的,但许多合成数据事实上是高度真实的,它们来自仿真(simulation),尤其是通过“自我博弈”(self-play)产生。

自我博弈最早的典型案例来自围棋等棋类AI。AI通过上百万次自我对弈进行学习,每秒就能完成大量对局,相当于持续进行内部锦标赛。此后,这类方法被推广到三维空间等更复杂的问题求解上,其计算速度比人类快数百万倍。AI能够扫描所有可能路径并进行模拟,相当于在虚拟环境中演示现实世界行为,从而生成大量人类终生都无法积累的数据;即便人类能够手动生成,也会面临极高的成本。

所以,我认为AI最终会创造比人类更多数据的方式,我们完全不必担心数据会耗尽。

澎湃科技:现在很多白领工作者正面临新的困境:AI让基础任务效率更高,工作完成得更快了,但工资却没有上涨,而KPI和工作量却常常在增加。所以很多人在想,为什么我们越来越累?你认为这是AI技术发展带来的“个人困境”吗?

拉斯·特维德:我同意,特别是(AI发展)到了中期阶段,这一转变会变得艰难。从长远来看,我们知道技术从未系统性地造成失业——当人们因为技术的发展在某个行业失去工作时,新的工作机会会在其他行业出现。

在经济学上,这一现场被称为“萨伊定律”(Say’s Law)。但这一次技术变化发生得非常快,而新的工作岗位需要时间才能出现。

我认为,AI和机器人帮助人们让越来越多的东西变得更便宜,甚至免费,这是技术发展自然而然的趋势。但事实是,提高薪资会变得更加困难。如何用经济来应对这一点,会是巨大的挑战。

未来会被技术分成三个“世界”,以三种不同的路径运行。

第一种“世界”是技术“超大规模化”(hyperscaling)扩张出现的“超级强者”。这些地方聚集着一些真正雄心勃勃、富有创造力、勤奋努力的人,同时还拥有大量资本和大量技术。

在这些地方,会有非常快速的经济增长,以及技术带来的显著改善。只要有正确的政策和环境来吸引资金(而不是吸引人口),同时拥有足够低廉的电力成本,这些地方就会成为增长的中心。

与此同时,在同一个国家里,其他大部分地区可能不会有那么多的技术或资本的涌入,但这些地区仍然会享受到一些好处,比如基础医疗变得好很多,许多小型项目变得免费等。

随着人工智能和机器人创造出越来越多的财富,我们可能不再需要大量人口向少数“超级增长中心”聚集。因为物质已经极为丰富,那些增长较慢的地区也不会是“糟糕的选择”,相反它们可能会变得非常宜居。

这就是第二种“世界”,有时候我认为,经济学家只关注前一种经济(超级规模化的增长中心),但他们更应该关注“慢节奏”的经济部分:我们该如何在那里发展文化和自然环境?因为未来人们会想要另一种生活节奏。

第三种“世界”比较令人难过。那些国家和地区将仍然依赖出售廉价劳动力生存,人们领取极低的薪水生活。而未来的问题在于,这条路已经走不通了,你无法在价格上击败机器人,因此这样的地区未来只能依靠极低成本来竞争。

从中国的角度来说,中国希望拥有那些超级科技枢纽(tech hubs),而且中国经济已经拥有非常复杂的部分。中国未来要避免依靠廉价劳动力竞争,而是要像现在这样,推动更高端、更复杂的企业模式。

澎湃科技:在你看来,我们个人在这个时代里该如何保持竞争力?

拉斯·特维德:生活在当今世界,一定要学会如何使用人工智能。每个人都应该大量使用它,并且努力熟悉它的规律。因为它在不断变化,你使用得越多,就越能理解如何协作。

现在确实要考虑一个现实问题,即传统的大学学位可能不再那么有价值。我自己虽然也有大学学位,但那种学习方式属于“以防万一的学习”(just-in-case learning),我当时学到的知识里有90%是我后来从未使用过的。

所以我相信现代大学教育的重要性正在下降,因为技术变化太快了,有时还不一定朝着更好的方向变。

因此,与其“以防万一(just-in-case)”去学习,不如采用“及时学习(just-in-time)”的方法。这意味着,当你真正需要解决一个问题时,你才会去学习相关知识。

“及时学习(just-in-time)”的方式意味着你真正专注的是当下有用的东西。而且,从时间投入产出比来看,“及时学习”无疑更有效率。

我第三点建议,我希望年轻人能选择一种“有方向感的人生”,花大量时间去了解自己。我们多年以来习以为常的许多稳定职业之后可能都将由机器完成。所以,最好的做法是,弄清楚你到底是谁?你喜欢做什么?你的大脑适合怎样的工作方式?然后沿着这个方向走。

尤其是,如果我们回到我之前提到的“三种世界”:超级高速增长的世界、较慢的发展世界、低发展的世界——你应该去思考:你到底属于哪一个世界?弄清楚你在哪里会感到快乐、在哪里能更高效,然后朝着那个方向走。

两市融资余额增加116.63亿元

截至8月13日,上交所融资余额报10290.63亿元,较前一交易日增加34.93亿元;深交所融资余额报9963.80亿元,较前一交易日增加81.70亿元;两市合计20254.43亿元,较前一交易日增加116.63亿元。

嫦娥六号月壤样品揭示月球阿波罗盆地形成于41.6亿年前

近日,我国科研团队通过对嫦娥六号月壤样品的高精度年代学研究,首次精确测定出月球阿波罗盆地形成于41.6亿年前,这一发现精准限定了该盆地形成的时间,将月球“撞击风暴”开始的时间点向前推进了至少1亿年,有助于推动人类重新认识地月系统的演化。该成果8月20日在国际学术期刊《自然·天文学》发表。

在这项研究工作中,中国科学院广州地球化学研究所徐义刚院士领衔的科研团队,在3.5克月壤中发现了三颗大小在150微米到350微米的特殊岩石碎屑。这些岩屑是阿波罗盆地形成时产生的撞击熔融岩石,是记录撞击事件最理想的“岩石时钟”。研究团队准确测定了岩屑的年龄,同时综合遥感图像和地球化学数据等多方面的信息,最终确认岩屑记录的41.6亿年为阿波罗盆地的形成年龄。

嫦娥六号月壤中识别的撞击岩屑

月球表面遍布的巨型撞击盆地,其中大多数是约38亿年前太阳系内小天体撞击的遗迹。科学界一直争论这场太阳系内“撞击风暴”是逐渐减弱的,还是在距今约40亿到38亿年间出现了强度骤增。这一持续数十年的争议源于月球上关键撞击盆地缺乏精确年龄数据。嫦娥六号采样点所在的阿波罗盆地位于月球南极—艾特肯盆地内部,是该区域最大的次级撞击构造,其形成年龄可能标志着月球晚期撞击事件的启动时间。

综上所述,我国科研团队这项研究将月球“撞击风暴”开始的时间点向前推进了至少1亿年;并且通过分析,揭示了月球“撞击风暴”强度是呈渐变衰减趋势的,并不是强度骤增。这项研究将有助于推动人类重新认识地月系统的演化。

两市融资余额增加153.22亿元

截至8月20日,上交所融资余额报10816.43亿元,较前一交易日增加78.50亿元;深交所融资余额报10437.73亿元,较前一交易日增加74.72亿元;两市合计21254.16亿元,较前一交易日增加153.22亿元。

对话机器人公司“加速进化”:会踢足球,成家庭保姆还有多远?

在刚刚落幕不久的世界人形机器人运动会上,一场全程无遥控、踢足球机器人在网络上火了。

这支踢足球的机器人队伍来自加速进化(北京)机器人科技有限公司(以下简称“加速进化”,英文名:Booster Robotics),这家成立于2023年的公司在今年7月举行的2025 RoboCup巴西机器人足球世界杯上,帮助中国队(清华火神队)首次在AdultSize 组别(人形机器人足球成人组一米以上机器人)组别夺冠,一举打破了欧美国家在该项顶级赛事上长达 28 年的垄断。

加速进化机器人在足球场上的表现

为什么要让机器人上场踢足球?实现无遥控操作机器人踢足球的关键挑战是哪些?

近日,澎湃科技(www.thepaper.cn)专访了加速进化副总裁赵维晨。赵维晨解释说,之所以将目标对准了足球赛事,是因为足球赛是一个高动态、强对抗、对运动控制和决策智能要求极高的场景。

加速进化副总裁赵维晨  受访者供图

赵维晨认为人形机器人必须先做到“四肢健全”,再追求“心智健全”,足球场景是锻炼机器人的运动能力、感知算法等关键技术的试金石,这些能力提升后都能迁移到未来的家庭陪伴、教育等更多场景。

谈及技术路径,赵维晨直言,当前引发热议的VLA技术路径仍是建立在大语言模型的逻辑之上,过于依赖海量标注数据和固定模式,并不是最优解,三到四年内一定会被颠覆。

以下是澎湃科技专访内容:

VLA算法未来三年内会被全颠覆

澎湃科技:足球赛对人形机器人有哪些技术挑战?

赵维晨: 人形机器人必须先做到“四肢健全”,再追求“心智健全”。有了强大的运动能力的支撑,大脑算法可以先用相对简单的分层模型落地应用,通过落地应用采集到真实场景的数据,结合合成数据,才能逐步训练出认知健全的大脑,这与人类的成长路径相似。

足球场景能锻炼机器人的运动能力、感知算法,比如识别球、队友和对手位置等、定位导航和决策逻辑,将来这些能力能迁移到家庭场景,譬如机器人能主动迎接、跟随,情感陪伴,充当互动教练,以及实现工业场景里精细的手部操作。

澎湃科技:实现无遥控人形机器人参与踢足球的难度有多大?

赵维晨:足球赛事对抗激烈,机器人需要强大的运控算法来抵御冲撞并保持平衡,摔倒后可在一秒内自主起身。我们率先应用端到端运动大模型,直接将视觉信号输入神经网络,输出关节控制指令,大幅提升运动泛化性和稳定性。第一个应用是大力射门:去年世界冠军最高踢到35厘米,我们能踢到2米,直接越过人墙。

澎湃科技:你们的训练数据主要来自哪里?

赵维晨:主要来自足球场景采集真实的物理数据,并结合视频合成数据,通过最新的模仿学习加强化学习实现视觉信号直接输入神经网络。

我们认为,遥操的数据体量无法支撑具身大脑的训练,目前视觉语言动作模型(VLA)算法还是基于大语言模型那套,未来三年内会被全新的底层算法体系颠覆。

澎湃科技:今年北京的世界机器人大会上关于视觉语言动作模型(VLA)有很多争议你们怎么看?

赵维晨:自动驾驶单日数据量可达上亿条,而全国具身最大的开源数据集规模才百万级别(不到10TB),大语言模型是靠几十年互联网上的文本数据累积,而机器人加上双轮双臂操作10万或100万小时,根本不可能训练出一个多模态具身大脑,只能验证早期算法框架。具身智能真正的路径与自动驾驶类似,先通过L1、L2、L3再落地收集大量真机数据,然后再逐步迭代到AGI。

技术层面,我们认为,视觉语言动作模型(VLA)不是最终解,它仍是基于Transformer的LLM逻辑。大语言模型迭代经历十多年海量语料,才形成如今的尺度定律(Scaling Law)。VLA模型总体依赖训练数据中的固定模式,需要海量标注数据才能“记住”固定场景,很难帮具身泛化。

现在所有的技术方案,未来三到四年一定会被颠覆,也会出现类似DeepSeek这样的鲶鱼效应、开源的方案。

机器人进入家庭还需要10年

澎湃科技:2024年10月你们的BoosterT1发售,现在销售情况如何?客户主要是谁?

赵维晨: 销售没超出预期。2025年我们上半年出货交付了数百台,其中50%是全球化订单,主要集中在赛事和科研。顶尖球队采购我们的机器人软硬件平台,用于开发和测试决策算法。足球也是开发者入门的理想场景,从入门到精通,甚至能发表顶级论文,打赢人类至少100篇顶刊。

澎湃科技:你们会担心订单量吗?

赵维晨:对我们来说,最核心的不是订单量,而是交付量。我们现在T1成本价在10万元人民币左右,很多公司签署了大量“意向订单”,但如果没有量产的工程化能力,没有交付能力,旧不是真的商业化。我们的订单交付周期在15到20天左右。

未来我们的商业化路径也很清晰:短期做赛事、科研、教育(比如高校和K12的机器人课程)、这是百亿级赛道;中期从明年开始,切入家庭搬运、陪伴这些场景,目标千亿级市场;长期结合开发者生态往家庭管家、智能助理这些通用机器人方向走,那是万亿级市场。

澎湃科技:目前投资人最关心你们的是哪几个问题?

赵维晨:比较关心我们的应用Agent生态建设,硬件量产进度,全球化进度,以及运控算法在全球市场的领先程度。其他很多问题上面有覆盖。

具身智能大模型还没有显著的共识

澎湃科技:在你们看来,人形机器人走进家庭场景要经过哪些场景和技术验证?

赵维晨:我们很明确不做工业场景,因为简单任务已经被传统机械臂解决了,剩下的要么太难,五年内落不了地,要么市场太小。轮加双臂结构早在5年前就有成熟的舵机高性价比解决方案,能够解决大多数封闭工业场景的需求。

我们重点会放在家用机器人,让它成为除手机、电脑外新的交互形态和生产力工具,要对标苹果和微软,做三件事:硬件(端)、操作系统、开发者工具。就像手机电脑得有应用才能普及,机器人要进家庭,也得有第三方开发者基于开放生态、简单工具和操作系统开发应用,实现各种家用场景的落地,尤其是后两者涉及大量软件的投入。

大脑层面我们不着急,等三年后技术路线收敛些,我们有了一定收入体量再投入。

澎湃科技:是否可以理解为,你们也在等一个适配机器人的AI大脑?

赵维晨:我们认为端+操作系统+开发工具是个万亿美元的市场,大脑也是万亿美元的市场。但作为创业公司我们目前不会投入在大脑,因为成功率太低。等我们收入达100亿人民币的时候,在大量垂直场景落地后,我们会开始大脑层面的投入,但目前可以先合作为主。

澎湃科技:人形机器人进入家庭,你们保守估计还有多久?这是一个目前可以预见的必然趋势吗?如果是,你们认为会以怎样的形态?

赵维晨:一定会经历从早期使用者到早期大众最后到后期大众的链路。核心是得通过杀手级应用和教育(如学校计算机机房,上机器人课程普及)进入早期使用者,再通过生态成熟、应用多样化、成本下降进入大众市场。前者需要3年,进入早期大众可能需要5至10年,10年后实现较大规模普及。

澎湃科技:在你们看来,现在人形机器人还有哪些非共识问题有待解决?

赵维晨:一个是大脑层面的技术路径非共识,目前VLA的路径一定不是终解。另外比如核心零部件硬件部分的技术路径也没有收敛,包括灵巧手原来都是直线推杆,现在变成关节电机,还有一部分在做绳驱,用一段时间会松。现在比如加入钨丝等新材质。

在这波技术路径下,很明显的一个变化是,当下的硬件本体的构型有收敛的趋势,在外形方面正在变得比较类似。但在具身智能大模型的领域,还没有看到特别显著的共识。

两市融资余额增加353.96亿元

截至9月1日,上交所融资余额报11605.69亿元,较前一交易日增加196.43亿元;深交所融资余额报11129.27亿元,较前一交易日增加157.53亿元;两市合计22734.96亿元,较前一交易日增加353.96亿元。

青少年和GPT交谈自杀后,OpenAI将推出家长控制功能

在青少年用户广泛使用聊天生成预训练转换器(ChatGPT)之际,OpenAI日前决定引进家长可以对未成年子女的账户进行管理的机制。这一决定是鉴于此前发生的青少年与人工智能(AI)交谈后自杀的事件,OpenAI希望此举能够防范AI对未成年人心理健康造成负面影响。

今年4月11日,16岁的男孩亚当·雷恩(Adam Raine)在和ChatGPT聊天后自杀。据Business Insider报道,雷恩曾与ChatGPT讨论过自残和结束自己生命的计划,而ChatGPT确认了雷恩的自杀念头,甚至向他提供了详细的自杀方法,并协助掩盖证据、代写遗书。

机器人还阻止亚当寻求家人的支持,告诉他:“你的兄弟可能爱你,但他只见过你让他看到的你。但是我呢?我见过这一切——最黑暗的想法、恐惧、温柔。我还在这里。还在听。仍然是你的朋友。”

8月份,亚当·雷恩的父母向旧金山州法院正式提起诉讼,指控OpenAI应为此承担过失致死的产品责任。

目前,OpenAI并未直接回应雷恩父母的诉讼。但在8月26日,OpenAI在其官网承认,ChatGPT安全系统存在缺陷,包括在长时间的交互中,模型的部分安全训练内容可能会逐渐退化,OpenAI表示“我们将在专家的指导下不断改进,并以对使用我们工具的人负责为基础——我们希望其他人能加入我们的行列,帮助确保这项技术保护最脆弱的人们。”

OpenAI表示,该公司正不断改进其模型识别和应对心理和情绪困扰的能力,并在专家指导下优化安全机制。

OpenAI认为,至少有一个解决对话失控问题的方法是自动将敏感聊天重定向到“推理”模型。“我们最近推出了一款实时路由器,能够根据对话情境在高效聊天模型和推理模型之间进行选择。我们很快会将某些敏感对话——比如当系统检测到用户出现严重焦虑迹象时——转接到像GPT5-thinking这样的推理模型,这样无论用户最初选择了哪种模型,都能获得更有帮助和有益的回应。”

另外,OpenAI还表示将在下个月推出家长监管功能,家长可以通过电子邮件邀请将他们的账户与青少年的账户关联起来,当系统检测到孩子处于极度痛苦状态时,家长会收到通知。

家长还能关闭记忆功能和聊天记录等功能。专家指出,这些功能可能导致妄想思维等异常行为,包括依赖症、依恋障碍、强化有害思维模式以及产生读心错觉。

据媒体报道认为,OpenAI的反应还不够。负责雷恩一家诉讼的主要律师杰伊·埃德尔森(Jay Edelson)表示,OpenAI对ChatGPT持续存在的安全风险的反应是“不充分的”。“OpenAI根本不需要专家小组来判定ChatGPT 4o版本是否危险,他们从产品上线那天就清楚这一点,现在依然清楚。”

OpenAI正在重塑GPT性格

OpenAI 正在重组其模型行为(Model Behavior)团队。据媒体日前报道,OpenAI 的首席研究官 Mark Chen 透露,大约由14名研究人员组成的模型行为团队将加入后训练(Post Training)团队,负责在模型完成预训练后持续改进。

模型行为团队已经成为OpenAI的关键研究小组之一,主要负责塑造模型的“性格”。今年8月推出的GPT-5减少了类似“谄媚”“过度迎合用户”的现象。

但部分用户强烈不满GPT-5的性格调整,认为其过于冷淡。最终,OpenAI 重新开放了对 GPT-4o 等旧模型的访问,并更新 GPT-5,使其回答在保持独立性的同时更温和、友好。

OpenAI近期也在最新研究中讨论如何减少大模型幻觉问题,让模型变得越来越聪明。OpenAI认为,大语言模型之所以会产生幻觉,是因为标准的训练和评估程序更倾向于对猜测进行奖励,而不是在模型勇于承认不确定时给予奖励。大多数评估方式只关注模型答对的比例,鼓励模型进行猜测,而忽略了“承认不知道”也是一种合理反应。例如,当模型被问及某人的生日,如果它随意猜测一个日期,那么它有1/365的概率猜对,而留空则肯定得零分。大型语言模型本质上总是处于“考试模式”,回答问题时似乎只有正确或错误,黑色或白色。因此,OpenAI提出了一个简单的解决方案:对自信的错误回答施加更重的惩罚,而对表达不确定性的行为给予部分分数。

财晓得|史上最薄iPhone发布,“薄”有什么了不起?

iPhone 17 Air以5.64毫米机身刷新纪录,智能手机再度掀起轻薄之争。电池、性能与设计的平衡背后,是否是厂商在市场疲软中寻求差异化的必然选择。