多名科学家及多项成果获中国科学院2024年度杰出科技成就奖

今天(16日)中国科学院在北京表彰获2024年度中国科学院杰出科技成就奖的科学家和科研成果。

中国科学院物理研究所陈立泉院士、中国科学技术大学陈仙辉院士获个人成就奖,

“银河系早期形成与演化”等4项成果获基础研究奖,“大规模压缩空气储能新技术与应用”等5项成果获技术发明奖,

“黑土区耕地退化阻控与地力提升关键技术”等5项成果获科技攻关奖。

据了解,获个人成就奖的陈立泉院士自1976年起就从事并坚守锂电池研究,在我国最早开展锂电池基础研究和技术攻关,为我国锂电池从无到有、从“跟跑”到“领跑”作出了奠基性贡献。另外一名获个人成就奖的陈仙辉院士长期从事量子材料领域研究,在笼目超导体、界面超导、磁性拓扑绝缘体等前沿领域持续做出引领性工作。

2024年,为贯彻国家科技奖励改革精神,中国科学院修订了《中国科学院杰出科技成就奖励条例》,强化奖励导向,设立4个奖项实行分类评价。个人成就奖主要奖励长期活跃在科技前沿、取得重大创新成就、对相关学科领域发展作出卓越贡献的杰出科学家;基础研究奖旨在激励在基础研究和应用基础研究方面取得重大科学发现和原始创新成果;技术发明奖旨在激励在应用研究和技术开发方面获得高价值知识产权,通过推广应用取得显著经济效益、社会效益或生态效益;科技攻关奖旨在激励在国家重大科技攻关任务中突破关键核心技术,在解决国家重大战略需求或保障国家安全方面发挥关键作用。

MiniMax发布新一代开源模型,首次大规模实现线性注意力机制

1月15日,澎湃科技(www.thepaper.cn)获悉,AI独角兽企业MiniMax上海稀宇科技有限公司(以下简称“MiniMax”)发布并开源新一代01全新系列模型。该系列模型包含基础语言大模型MiniMax-Text-01和视觉多模态大模型MiniMax-VL-01。MiniMax称该系列模型可以实现高效超长文本输入。MiniMax认为,2025年将是Agent高速发展的关键年份,无论是单Agent系统还是多Agent系统,都需要更长的上下文来支持持续记忆和大量通信。

据了解,MiniMax-01系列模型首次大规模实现线性注意力机制,传统Transformer架构不再是唯一的选择。

MiniMax-01系列模型核心性能在多项任务评测结果显示结果

目前领先的大语言模型大都基于Transformer架构,而Transformer核心的自注意力机制是其计算成本的重要来源。为了优化计算效率,MiniMax研究社区提出了稀疏注意力、低秩分解和线性注意力等许多技术。通过使用线性注意力,原生Transformer的计算复杂度可从二次复杂度大幅下降到线性复杂度,在处理长输入的时候具有非常高的效率。

据了解,该模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。

MiniMax认为,2025年将是Agent高速发展的关键年份,无论是单Agent系统还是多Agent系统,都需要更长的上下文来支持持续记忆和大量通信。MiniMax-01系列模型的推出,正是为了满足这一需求,迈出建立复杂Agent基础能力的第一步。

此外,MiniMax声称受益于架构的创新、效率的优化、集群训推一体的设计以及内部大量并发算力复用,得以用业内最低的价格区间提供文本和多模态理解的API,标准定价是输入token1元/百万token,输出token8元/百万token。

目前,MiniMax-01系列开源模型已应用于MiniMax旗下产品海螺AI,并在全球范围内上线,企业与个人开发者可前往MiniMax开放平台使用API。

对话OpenAI前全球商业化负责人:效率、多模态、Agent是2025年AI的三大关键词

过往的2024年,AI在投融资市场呈现火热的趋势,美国“科技七巨头”市值增长了6万亿美元,类似OpenAI、Perplexity、xAI和Anthropic等AI明星企业都在2024年下半年频频传出新的融资消息。

和海外热火朝天的投资相比,中国AI市场经过两年的投入,行业竞争加剧,有不少创业公司开始扛不住大模型预训练消耗的资金和精力。2025年伊始,零一万物被曝其超大模型已经交由阿里训练,零一万物负责小参数、适中的行业模型。其创始人李开复对此回复称,“大家都看得很清楚,只有大厂能够‘烧’超大模型。”

“我不认为AI的价值在于专注开发模型,更重要的是应用,制胜之道是构建出更具有性价比、让每个人都能使用的平台和应用程序。”近日,OpenAI前全球商业化负责人、人工智能与商业战略专家Zack Kass在接受澎湃科技(www.thepaper.cn)专访时表示。

OpenAI前全球商业化负责人、人工智能与商业战略专家Zack Kass

Zack Kass认为,在过往的一年,AI价格变得更加低廉是显而易见的,这意味着仅专注模型本身和技术变化是不够的,让AI变得更加有性价比是一个发展趋势。对于中国AI初创公司来说,最应该关注的是将消费者应用程序变得更好、更高效、更具有性价比。

在Zack Kass看来,效率、多模态与AI Agent将是2025年AI的三大关键词。效率将推动AI技术的大众化,多模态将拓展AI的应用场景,而AI Agent则有望彻底改变软件行业的盈利模式。

【以下对话全文】:

AI正迅速变得更具有性价比

澎湃科技:就2024年AI整体的发展,你观察到哪些趋势性的变化?

Zack Kass:一方面我认为,其实人们并没有注意到人工智能对每个人的日常生活有多大的改善,仍在追问“AI泡沫”;另一方面,AI的价格迅速下降,这让我意想不到。这意味着,模型和技术变好是不够的,还要让它变得便宜。

成本的大幅降低意味着技术的可获取性大大提高,这在历史上往往预示着一场新经济的爆发式增长。当关键资源变得廉价时,通常会带来巨大的积极变化,我们希望AI尽可能便宜,这是一个大的趋势。

这个趋势对中国来说尤其有趣,这些模型的压缩使得它们能够以非常低廉的成本进行推理,从而实现技术的普遍平等。在这种情况下,我们实际上无法限制技术的获取。随着模型成本的持续降低,“单一模型提供商可以控制世界”的观点也站不住脚。

现阶段,依然很多人在警惕AI泡沫,认为过度夸大了人工智能的重要性,但我的看法是,现阶段人们还没有完全意识到人工智能真正的潜力。

澎湃科技:最近创新工场的联合创始人李开复在接受媒体采访时说,未来零一万物将不再追求训练超级大模型,创业公司投资大模型预训练的性价比太低。你怎么看?

Zack Kass:开发前沿模型是重要的,但更重要的是应用。李开复在这场大模型竞赛中的结果,并不是没有预测到。

我有一个“模型收益递减理论”,基本上是说,在某些时候,下一个新模型的出现并不重要。但在某些时候,新模型的出现又如此不可思议,然而总有一天新模型的出现会对我们不再那么重要,这表明朝着这个结果努力并不是真正的制胜之道,制胜之道是构建每个人都能使用的平台和应用程序。

澎湃科技:有没有你觉得在商业化做得比较好的AI公司?有哪些特点?

Zack Kass:Perplexity非常出色,因为它建立的模型是专门为一个非常关键的应用——搜索设计的。Perplexity把重点完全放在搜索这个巨大的类别上,建立了一个训练有素的模型。

我认为Perplexity的最终模式会是付费版本,它以后会卖广告的。更有趣的是,已经能看到很多软件公司在大规模地扩展自己的产品,很多人都在想办法在自己的软件产品中销售新的人工智能产品。

PerplexityAI

澎湃科技:对于中国企业想要利用AI的,你有什么建议?

Zack Kass:对于中国企业来说,采用人工智能有两种方式:第一种是改进内部流程,让AI帮助企业更好地运行,尤其是如果你是一家中小型企业,这样做就会非常有意义。互联网给我们带来了电子商务,一种全新的购买商品和服务的方式。反过来,AI也将以几乎无法想象的方式呈现新的商业模式,机会显然无处不在。

如果我是中国创业者,会更倾向于在AI软件或AI应用领域,尤其是生活消费类的方面。如果我成立一家人工智能公司,我会为像街角商店这样的消费场景开发人工智能软件。

总体来说,人们日常生活中涉及衣食住行的这类小生意,很容易快速实现商业化,也具有市场潜力,所以我认为向这些公司销售AI将会非常容易。

2025年的关键词是效率、多模态与AI Agent

澎湃科技:你对于2025年AI的发展有哪些预测?AI如何更好地融入我们的生活?

Zack Kass:目前,我们正处于第一个阶段——增强应用阶段。这在中国十分常见,即现有的应用程序,如微信等,现在借助AI获得授权或增强能力,我们只是接受了AI的存在,并将这些模型应用于现有应用程序中,从而现有世界的效率提高了30%~40%,用相同的应用程序能做更多事情。

接下来我们将进入自主代理(AI Agent)阶段。如今,大多数人已知晓自主代理,我们正快速接近一个不再需要打开应用程序并使用由AI授权或增强的应用程序的世界,而是将任务分配给AI代理,由其在应用程序和网络体验中执行任务。这令人兴奋,未来我们会花更少时间在应用程序本身上,而会把更多的时间将任务分配给在应用程序中执行任务的代理。

此外,在未来可能出现的多模态(multi-agent)AI世界中,可以在一定程度上操控手机上的不同软件,尤其是在通过不同的输入方式(如语音、图像、文字等)与手机应用程序进行交互时。

第三阶段是自然语言操作系统多模态。这一阶段稍显复杂,但主要会发生两件事:首先,我们将从携带个人电脑转变为佩戴它们,如以眼镜、手表或工作内容预测工具等形式出现。各大消费电子公司及部分非消费电子公司都在朝此方向努力,OpenAI也不例外。

我的观点是,世界很快将获得完全整合的、不计量的智能,能准确学习我们工作方式并嵌入到各种智能界面的世界里,未来了解大多数未知的事情并变得异常容易,人们也将认为完全获得智能是理所当然的。

澎湃科技:在你看来,人们应该如何应对这种变化?

Zack Kass:首先,你必须为事情的持续变化做好准备。现在世界发展得非常快,我建议大家将自身的适应性作为个人的核心战略,我希望所有的年轻人都能学会适应变化。现在仅仅说“我们可能会改变”是不够的,现在要求我们必须说“我们将改变”。

很多年轻人问我,“我应该学习什么才能获得一份好的工作”?我有一个令人失望的答案,“其实学什么并不重要”。你的专业与经济成果之间的正相关性正在快速下降,你学习的内容不再真正影响你的工作质量。

我并不认为AI会让更多人失业,这是人们对AI革命的误解。我最反感的是,我们开始围绕AI做不到的事情进行追问思考,我称之为“负空间(Negative Space)AI”。在美国硅谷每个人都在谈论AI能做的所有事情,关注AI积极的一面。比如,我去酒吧,有人发现我在OpenAI工作过,他们最喜欢问的问题是:“OpenAI接下来要建造什么?GPT-5什么时候到?”这是我最喜欢的问题,从来没有人问过我:“什么是AI不会实现的?”

如果担心会被AI取代的话,我们应该开始提升人文素质,AI将创造众多新兴工作岗位,并在全球范围内积累巨大价值,推动生活成本不断降低。

美国初创AI公司Perplexity提议与Tiktok美国业务合并

在短暂停止服务后,短视频社交媒体平台TikTok19日恢复在美国的服务。但有消息称,在18日早些时候,TikTok暂停服务前,美国人工智能初创公司Perplexity向TikTok母公司字节跳动提交了一份收购提案。据美国财经门户网站Investor’s Business Daily报道,该提案提出将Perplexity、TikTok美国以及新的资本合作伙伴合并成一个新实体。此合并方案允许字节跳动的大多数现有投资者保留股权。

19日,TikTok发表声明表示,将与美国候任总统特朗普一起寻找维持TikTok应用程序在美可用的长期解决方案。特朗普当日在社交媒体上发文,呼吁各公司不要让TikTok处于停止运转状态。特朗普说,他将于20日发布一项行政令,推迟TikTok“不卖就禁用”的法律生效时间,同时他还为Tiktok继续在美营运开出了条件,声称希望美国在合资企业中拥有50%的所有权。

Perplexity成立于2022年,是由AI 聊天机器人驱动的研究和对话搜索引擎,被称为生成性AI热潮中最有价值的年轻AI初创公司之一。该公司的早期投资者包括亚马逊创始人和新任CEO杰夫·贝索斯(Jeffrey Bezos)、Nvidia( NVDA )和风险投资公司New Enterprise Associates。在最新一轮融资后,Perplexity估值为90亿美元,大家对于其推出的收购提案不抱期望。Wedbush分析师Daniel Ives在一封电子邮件中对Investor’s Business Daily表示,“我们认为对Perplexity的收购无望,因其内在价值太低,不可能达成400多亿美元的交易。在TikTok竞争激烈的竞标过程中,马斯克是领先者。”

此前,TikTok已否认或将美国业务出售给马斯克,称未与马斯克方面谈过潜在的出售交易,且没有与中国监管层讨论过所谓出售的方案。马斯克现已成为特朗普的重要顾问,拥有社交媒体平台X,和杰夫·贝索斯(Jeff Bezos)是长期竞争对手。 

此外,Perplexity的竞争者虎视眈眈。初创公司OpenAI的ChatGPT功能与Perplexity相似,同样是通过访问网络搜集信息,进行总结、整合、输出答案。OpenAI近期获得66亿美元的新融资,估值达到1570亿美元。谷歌股价在2025年上涨了3.5%,去年上涨了37%,有了TikTok,Perplexity可能会成为Alphabet(GOOGL)更强大的竞争对手。

百万真机数据只是杯水车薪,数据匮乏成为具身智能行业困境

·目前具身智能领域正处在类似于从GPT-1到GPT-2的过渡阶段,连最基础的物理世界的数据都还十分匮乏。遥操作方式获取的数据成本过于高昂且采集效率低,导致行业内很难获取。除了缺乏高质量数据,徐良威认为,具身智能数据服务行业内面临的首要难题是缺乏统一的数据集定义标准。

过去的一年,具身智能、人形机器人引发的关注与日俱增,但喧嚣过后,这一行业的发展也正面临着艰巨的挑战,其中训练具身智能大模型所需要的高质量数据在哪的问题成为眼下行业的一大共同的困扰。

日前,上海机器人初创公司智元机器人正式开源百万真机数据集AgiBot World使得数据缺乏问题再次被提起。智元机器人联合创始人、首席技术官彭志辉(网名为“稚晖君”)表示,在具身智能领域,真机数据的采集成本和门槛非常高,此次开源希望众多科研团队基于真实数据进行具身智能算法的训练,加速技术创新和产品应用。但在业内人士看来,“百万条真机数据量”对于行业来说只是杯水车薪,“只能训练一个动作的泛化,譬如分拣,对实现理想状态中的具身智能还远不够。”

除了数据缺乏的困扰之外,已有数据的标准化也是一个待解难题。

连最基础的数据都缺乏

不同于语言大模型的训练得益于互联网上海量的数据,具身智能“大脑”的训练则需要更多来自物理世界即真实世界动态环境中的交互数据,如何解决物理世界数据匮乏问题,成为眼下人形机器人技术演进路上最大的难题。

人形机器人创业企业之一——银河通用的创始人兼CTO、北京大学助理教授王鹤此前在不同场合多次提及具身智能领域面临数据集短缺的难题。王鹤认为,通用机器人背后的技术一定是具身大模型,要用数据驱动基础机器人大模型,让机器人能够有极高的泛化性和跨行业应用能力。但现有数据量不足以支持通用机器人的发展。

泛化性是指模型经过训练后,能够将一项行为应用到陌生的应用场景中的能力,在陌生场景中能自主识别任务并采取行动。国家地方共建人形机器人创新中心(以下简称“国地中心”)相关数据负责人在接受澎湃科技(www.thepaper.cn)采访时表示,行业内对于机器人泛化数据的获取始终是一大难题,现阶段,特斯拉的Optimus仍需要人为远程操作来帮助机器人完成任务,还不具备泛化能力。

国家地方共建人形机器人创新中心具身智能数据看板,澎湃科技记者拍摄。

北京航空航天大学机器人研究所名誉所长王田苗此前在接受澎湃科技采访时也指出,数据的匮乏让人形机器人很难具备泛化性。当前,机器人任务泛化、感知泛化和运动操作的三个泛化数据很难获取,比如让机器人叠衣服、骑自行车等这些数据很难得到。

王鹤团队从2023年开始探索大规模的灵巧手数据合成和大规模的泛化,2024年合成了10亿规模的数据体量,用于训练机器人的灵巧手。

总部位于深圳的一家向具身智能机器人提供基础场景数据和解决方案的创业公司艾欧智能联合创始人徐良威告诉澎湃科技,经过一年多对于机器人技术路径的探索发现,“只有通过海量数据训练才能够真正地通向具身智能”已经成为行业共识,通过仿真数据实现智能的可能性远远小于使用真实数据。然而,目前具身智能领域正处在类似于从GPT-1到GPT-2的过渡阶段,连最基础的物理世界的数据都还十分匮乏。

在徐良威看来,对于训练具身智能泛化能力来说,AgiBot World这种百万量级的数据集虽然已经取得明显的进步,但只是“杯水车薪,洒洒水而已”,达到理想的效果需要更大量的数据。

高质量数据获取采集成本过于昂贵

澎湃科技记者了解到,在具身智能领域实践中发展出四种具身智能采集训练数据:第一种是遥操作机器人数据,即需要一位人工数据采集员戴着遥操作手套,手把手示教,获取真机操作数据。通过这种方式获取的数据质量最高,但成本昂贵。第二种是仿真合成数据,在虚拟的3D仿真环境里从无到有地积累训练数据,这类训练数据以生成数据为主,与真实世界仍有较大差异。第三种是通过人类动作捕捉数据,也称为动作捕捉或动作追踪数据,是通过传感器、摄像头或其他设备,精确记录和分析人体运动的技术。这类方式获取的数据质量较高,但通过人类动作捕捉获取的数据,与机器人能否适配仍存在一定差异,需要后期继续做构型对齐相关工作。第四种数据来源是通过互联网获取人类动作视频或图像数据。这类方式的特点是能获得海量数据,但都是单一模态、非结构化且无标注的二维图像或视频信息,质量很差。

国地中心数据负责人指出,目前行业内最匮乏的是通过遥操作方式获取的高质量数据,仿真合成类数据获取成本低,但仍需要弥合仿真与现实世界的差距。然而,遥操作方式获取的数据成本过于高昂且采集效率低,导致行业内很难获取。

数据训练员穿上特制的动作捕捉服装训练人形机器人捕捉数据 

“一台遥操设备投入约35万元,再加上人工数据采集员的成本,每人每天大约采集500条数据,人工成本至少需要300元,即便长期投入也无法保证成功。”国地中心数据负责人估算,特斯拉的人形机器人Optimus至少需要数百万小时的数据才能完全准备好在特斯拉工厂工作,这期间可能需要至少5亿美元的数据采集成本。

上述国地中心数据负责人向澎湃科技透露,即便银河通用专注于强化机器人大脑模型,强调仿真合成数据的使用,但仍面临一定挑战。“在仿真环境中参数看似正确,但在物理世界中,即使是微小的偏差也会导致完全不同的结果。比如,人形机器人执行蹲下起身这类动作时,不同机器人可能会有不同表现,电机参数任何微小变化可能会导致机器人出现完全不同的行为,很难控制。”

由于泛化数据采集成本高、获取难度大,国地中心数据负责人透露,现阶段行业内大部分按照1:9或者1:10的数据比例训练机器人,即一条遥操作机器人数据配以9条或者10条仿真合成数据,但这个比例目前还没有定论。

缺乏统一标准的数据集

徐良威认为,另一个关键问题是如何实现高效的数据采集。虽然通过人工操作机器人可以获取高质量的数据,但这种方式的效率极低。徐良威称,智元对外称一周可采集50万条数据,综合一年数据量也不过只能达到千万量级,这对具身智能训练效率非常低,难以提速。

除了缺乏高质量数据,徐良威认为,具身智能数据服务行业内面临的首要难题是缺乏统一的数据集定义标准。尽管海外有Google这类科技巨头已开源部分数据集,国内也有智元机器人开源百万条真机数据集等,但不同公司开放的数据集格式能否兼容、能否保持数据质量的一致性很难说。

“北京和上海的开源数据集能否兼容、数据格式是否一致,以及数据托管的方式有哪些不同,这些还有待出台统一的数据标准。”徐良威说,目前国内众多机器人公司正处于“百花齐放”的状态,在数据管理上也各自为政,这导致公司之间沟通成本非常高。

在数据处理上,目前行业内也缺少统一的数据处理标准。“不同公司、机构或平台对处理数据的方法不一,机器人如果要有效利用这些数据,还需进一步处理。”徐良威说,每个团队或公司可能都需要从头开始处理标注数据,这会浪费大量时间和资源,且无法保证训练结果的通用性。

近期,国家地方共建具身智能机器人创新中心牵头立项的《人工智能具身智能数据采集规范》工信部行业标准,规范了具身智能数据集采集的格式,使不同公司采集的数据可以互相共享开源,加速模型“涌现”,在徐良威看来,对从业者来说无疑是一个积极的信号。

2025年会出现更多的数据采集训练场

世界模型的出现似乎给人形机器人带来一些新的希望。去年12月,李飞飞的世界模型开启了从数字世界向物理世界的跨越征程,实现了从一维数字智能向三维空间智能的重大转变。2025年1月6日,英伟达创始人兼首席执行官黄仁勋在2025CES(国际消费类电子产品展览会)期间,推出了涵盖生成世界基础模型的Cosmos世界基础模型平台,旨在加速自动驾驶汽车、机器人等物理AI系统开发。黄仁勋认为,“机器人的ChatGPT时刻即将到来。与大语言模型一样,世界基础模型对于推进机器人和自动驾驶汽车的开发至关重要。”

徐良威称,这一类世界模型为通用智能提供空间、时间、物理、语义等各方面的模型表征。理论上来说,一方面,世界模型的成功使得机器人“理解世界”具备可能性;另一方面,世界模型能够在各维度下生成符合世界规律的数据,有潜力成为机器人合成数据的新范式。不过,虽然世界已经有一些阶段性的成果推出,但真正在机器人上应用,直至能够商业落地也还需要进一步发展。

数据缺乏在成为业内共识的同时,各方也在采取解决方案。2024年8月,特斯拉对外高薪招募“数据采集员”;2024年12月27日,北京国地共建具身智能机器人创新数据采集基地亮相。

据了解,从2024年下半年开始,位于上海张江的国家地方共建人形机器人创新中心也在搭建基于自己平台的数据采集训练场,目前,训练场的场地搭建工作以及数据采集机器人设备也基本到位,2025年计划招聘一些数据采集员来配合遥操作数据采集。2025年预期量产机器人的数量会上升,随之带来的数据采集量也会大幅增长,在数据采集成本方面也会下降。“今后可能会有一批便携式数据采集工具出现,这样会进一步降低数据采集成本。”相关人士透露。

在徐良威看来,北京、上海相继表示要共建具身智能机器人创新数据采集基地和搭建实训、模拟应用场景建设,核心价值远不止数据采集本身,更重要的是能够集中资源、缩短数据积累的时间,也相应地缩短了具身智能市场准入时间。他预测,2025年不同地区会加快建设数据采集训练场,以便从0到1的过程中尽快实现机器人的落地应用,此外数据采集方式将更加多样化。

刘知远详解DeepSeek出圈背后的逻辑:自身算法的创新以及OpenAI的傲慢

·AI如果想要真正赋能全人类,让每个人都能够用得上、用得起大模型和通用人工智能,那么高效性显然是一个非常重要的命题。

·我们认为智能革命显然也要走过一条类似于信息革命的阶段,不断去提高能力密度,降低计算成本,让大模型得以更加普惠。

“DeepSeek R1的开源,让全球的人能够意识到深度思考的能力。这相当于让整个人工智能领域再次迎来了类似于2023年初ChatGPT的时刻,让每个人感受到大模型的能力又往前迈进了一大步。但同时,我们也需要合理地评估DeepSeek本身的重要意义。”清华大学长聘副教授刘知远日前在参与由中国计算机学会青年计算机科技论坛(CCF Young Computer Scientists & Engineers Forum,YOCSEF)策划的直播活动中表示,这场直播的主题为“夜话DeepSeek:技术原理与未来方向”,共同参与话题讨论的还有复旦大学教授邱锡鹏、清华大学教授翟季冬等。

直播截图

在这场直播中,刘知远分析了DeepSeek成功出圈带来的启示,并分析了大模型技术未来发展的趋势。刘知远认为,DeepSeek V3展示了如何用十分之一甚至更少的成本完成达到GPT-4和GPT-4o水平的能力,此外DeepSeek R1的出圈也证明了OpenAI犯了“傲慢之罪”——它不开源,不公开技术细节,且定价过高。

以下为刘知远在直播中的观点实录,经本人同意发表:

今天我将从宏观角度为大家介绍DeepSeek R1所代表的大规模强化学习技术,及其基本原理。同时,我们也会探讨为什么DeepSeek R1能够引起如此多的关注。

首先,我们来看DeepSeek最近发布的R1模型,它具有非常重要的价值。这种价值主要体现在DeepSeek R1能够完美复现OpenAI o1的深度推理能力。

因为OpenAI o1本身并没有提供关于其实现细节的任何信息,OpenAI o1相当于引爆了一个原子弹,但没有告诉大家秘方。而我们需要从头开始,自己去寻找如何复现这种能力的方法。DeepSeek可能是全球首个能够通过纯粹的强化学习技术复现OpenAI o1能力的团队,并且他们通过开源并发布相对详细的介绍,为行业做出了重要贡献。

我们可以大致总结了DeepSeek R1的整个训练流程,它有两个非常重要的亮点或价值。首先,DeepSeek R1创造性地基于DeepSeek V3基座模型,通过大规模强化学习技术,得到了一个纯粹通过强化学习增强的强推理模型,即DeepSeek-R1-Zero。这具有非常重要的价值,因为在历史上几乎没有团队能够成功地将强化学习技术很好地应用于大规模模型上,并实现大规模训练。DeepSeek能够实现大规模强化学习的一个重要技术特点是其采用了基于规则(rule-based)的方法,确保强化学习可以规模化,并实现面向强化学习的扩展(Scaling),这是它的第一个贡献。

DeepSeek R1的第二个重要贡献在于其强化学习技术不仅局限于数学、算法代码等容易提供奖励信号的领域,还能创造性地将强化学习带来的强推理能力泛化到其他领域。这也是用户在实际使用DeepSeek R1进行写作等任务时,能够感受到其强大的深度思考能力的原因。

这种泛化能力的实现分为两个阶段。首先,基于DeepSeek V3基座模型,通过增强推理过程的可读性,生成了带有深度推理能力的SFT(Supervised Fine-Tuning,监督微调)数据。这种数据结合了深度推理能力和传统通用SFT数据,用于微调大模型。随后,进一步通过强化学习训练,得到了具有强大泛化能力的强推理模型,即DeepSeek R1。

因此,DeepSeek R1的重要贡献体现在两个方面:一是通过规则驱动的方法实现了大规模强化学习;二是通过深度推理 SFT数据与通用SFT数据的混合微调,实现了推理能力的跨任务泛化。这使得DeepSeek R1能够成功复现OpenAI o1的推理水平。

所以,我们其实应该非常重视DeepSeek R1。它由于开源,让全球的人能够意识到深度思考的能力,这相当于让整个人工智能领域再次迎来了类似于2023年初ChatGPT的时刻,让每个人感受到大模型的能力又往前迈进了一大步。但同时,我们也需要合理地评估DeepSeek本身的重要意义。

如果说2023年初OpenAI发布的ChatGPT让全球看到了大模型非常重要的价值,那么这一次的强推理能力其实也是OpenAI在2024年9月发布的o1率先实现的。而DeepSeek R1,我们认为它在历史上更像是2023年Meta的LLaMA。它能够通过开源复现,并且把这些事情全部公开给全球,让大家能够快速地建立起相关能力,这是我们对DeepSeek R1及其重要意义的一个准确认识。

当然,为什么说DeepSeek R1能够取得如此全球性的成功呢?我们认为这与OpenAI采用的一些策略有非常大的关系。OpenAI 在发布o1之后,首先选择不开源,其次将o1深度思考的过程隐藏起来,第三是o1本身采用了非常高的收费。这使得o1无法在全球范围内让尽可能多的人普惠地感受到深度思考所带来的震撼。

而DeepSeek R1则像2023年初OpenAI的ChatGPT一样,让所有人真正感受到了这种震撼,这是DeepSeek R1出圈的非常重要的原因。如果我们进一步将DeepSeek发布的R1和之前的V3结合起来考虑,那么它的意义在于:在非常有限的算力资源支持下,通过强大的算法创新,突破了算力瓶颈,让我们看到即使在有限的算力下,也能做出具有全球意义的领先成果。

这件事对中国AI的发展具有非常重要的意义。当然,我们也应该看到,AI如果想要真正赋能全人类,让每个人都能够用得上、用得起大模型和通用人工智能,那么高效性显然是一个非常重要的命题。

而在这个方面,我们其实有非常多的话题可以去讨论。除了刚才我和邱锡鹏老师提到的强化学习本身需要在未来探索更加高效的方案之外,我们还需要研究出更加高效的模型架构。例如,V3所采用的MoE架构,未来应该也会有许多其他相关的高效架构方案。进一步地,国浩和翟季冬老师稍后也会介绍高效的算力应用等话题。

这其实也是DeepSeek V3和R1带给我们的另一个非常重要的启示。我们也会认为,整个人工智能的发展在未来追求高效性是我们内在的一个使命和需求。

从这个方面,我想适当展开一点来介绍。我们会看到上一次所谓的科技革命,也就是信息革命,其非常重要的内核实际上是计算芯片的发展。在过去80年时间里,计算机从最初需要一个屋子才能装得下的规模,发展到如今每个人手边都有的手机、PC,以及各种各样的计算设备,都可以在非常小的设备上完成非常强大的计算能力。

所有这一切,其实都源于芯片行业在摩尔定律的指引下,不断推进芯片制程,提升芯片电路密度,从而实现计算设备的小型化和普惠化,推动算力的普及。这显然是我们未来追求高效性的一个非常重要的内在需求。

这也是为什么我们在去年特别强调要发展大模型的能力密度。实际上,过去几年我们也能看到类似摩尔定律的现象:大模型的能力密度正以时间的指数级增强。从2023年以来,大模型的能力密度大约每100天翻一倍,也就是说,每过100天,我们只需要一半的算力和一半的参数就能实现相同的能力。

因此,我们相信,面向未来,我们应该不断追求更高的能力密度,努力以更低的成本——包括训练成本和计算成本——来实现大模型的高效发展。 从这一点来看,我们显然可以看到,如果按照能力密度的发展趋势,我们完全可以实现每100天用一半的算力和一半的参数,达到相同的模型能力。而推动这件事情,应当是我们未来发展的使命。

所以,如果我们对标上一个科技革命——也就是信息革命,显然对我们即将到来的智能革命有着非常重要的启示。实际上,在信息革命刚刚开始的时候,IBM的创始人沃森曾认为,世界上不需要超过五台主机就可以满足全世界的计算需求。但到了今天,我们可以看到全球有数十亿、上百亿的计算设备在服务于全人类的社会。

因此,我们认为智能革命显然也要走过一条类似于信息革命的阶段,不断去提高能力密度,降低计算成本,让大模型得以更加普惠。所以,我们会认为AI时代的这些核心引擎,包括电力、算力以及大模型所代表的智力,这种密度定律应该是普遍存在的。我们需要不断地通过高质量、可持续的方式去实现大模型的普惠,这应该是我们未来的发展方向。

面向未来,我们认为人工智能有三大主战场,它们的目标都是让通用人工智能达到顶尖水平。首先,我们要探索人工智能的科学化技术方案,实现更科学、更高效的人工智能实现方式。其次,我们要实现计算系统的智能化,能够在计算层面以更低的成本、更通用地将大模型应用于各个领域。最后,我们也要在各个领域探索人工智能的广谱化应用。

以下是观众提问环节:

OpenAI犯了“傲慢之罪”

Q: DeepSeek的成功因素里,最有亮点的一个技术是什么?

刘知远:我觉得主要有两条启示:DeepSeek V3给我们的重要启示在于,它展示了如何用1/10甚至更少的成本完成达到GPT-4和GPT-4o水平的能力。DeepSeek V3在底层算力加速方面做了大量工作。但更重要的是,翟老师特别强调了DeepSeek V3实现了算法和底层软硬件的协同优化。这种一体化优化机制让大家看到,即使成本已经很低,但仍然可以通过优化进一步降低成本。虽然V3的成本仍然是几百万美元甚至几千万美元,但相比国际上公认的水平,已经低得多。这也是英伟达股价下降的一个重要原因。

DeepSeek R1的启示在于,OpenAI犯了“傲慢之罪”——它不开源,不公开技术细节,且定价过高。而DeepSeek的R1则开源且免费,让全球用户都能使用,并且公开了所有技术细节。这使得DeepSeek在历史上占据了原本应该属于OpenAI的位置,就像当年的ChatGPT一样。DeepSeek通过极致优化有限资源,成功追赶上了国际最先进的模型,我觉得干的非常漂亮,并且通过开源让全球都认识到中国团队的创新能力。

Q:为什么DeepSeek的 R1模型在这个时间点出现?之前有没有基于基础模型直接做强化学习的尝试?之前也有模型在思维链上做过类似工作,为什么DeepSeek的R1模型会如此出圈?

刘知远:我觉得这件事情还是具有一定的必然性。大概在2024年的时候,很多投资人,甚至一些不从事人工智能领域的人,会来问我:中国的AI和美国的AI相比,到底是差距变大了还是变小了?我当时明确表示,我们认为中国正在非常快速地追赶,与美国最先进的技术之间的差距正在逐渐缩小。尽管我们面临一些限制,但这种追赶是显而易见的。

一个重要的现象可以验证这一点:2023年初ChatGPT和后面GPT-4发布后,国内团队复现这两个版本的模型大概都花了一年时间。2023年底,国内团队复现了ChatGPT水平的模型能力;2024年四五月份,一线团队复现了GPT-4水平的能力。但随后你会发现,像Sora、GPT-4o这样的模型,基本上都是国内团队在大约半年内完成复现的。这意味着,像o1这样的模型能力,国内团队在半年左右复现是可预期的。

DeepSeek本身非常出色,其价值不仅在于能够复现,还在于它以极低的成本做到了这一点。这是它的独到之处,也是它脱颖而出的原因。但无论如何,国内一线团队能够在半年左右复现o1水平的模型能力,我认为这是可以预期的。DeepSeek能够更快、更低成本、更高效地完成这项工作,这是它的巨大贡献。从这个角度看,我认为有一定的必然性。

当然,DeepSeek能够达到这样的出圈效果,也离不开它自身团队的长期积累,这正如刚才邱锡鹏老师提到的那样。

Q:(评论区问题)刚刚知远老师 PPT 里提到的能力密度是如何定义的?它的内在原因是什么?

刘知远:这个“能力密度”的概念是我们最近半年提出的。关于如何有效地、准确地衡量能力密度,大家可以参考我们发表在arxiv 上的论文,论文题目是《Densing law of LLMs》。

所谓的能力密度,可以理解为模型在各种评测集上展现出来的能力,除以其参数规模,或者说是激活的参数规模。我们观察过去一年半发布的代表性模型,发现其能力密度大约每100天增加一倍。这意味着每过100天,我们可以用一半的参数实现相同的能力。这一现象背后有多个因素影响:

·1数据质量:更高的数据质量取决于数据治理。高质量的数据能够提升模型的训练效果。

·2模型架构:采用更稀疏激活的模型架构,可以用更少的激活参数承载更多的能力。

·3学习方法:包括OpenAI在内的所有一线团队都在开展所谓的“scaling prediction”。在真正训练模型之前,我们会进行大量的风洞实验,积累各种预测数据,以确定模型需要什么样的数据配比和超参配置,从而达到最佳效果。

综合这些因素,模型可以用更少的参数承载更多的能力。我们将这一现象类比为芯片行业的摩尔定律。摩尔定律告诉我们,每18个月,芯片上的电路密度会增加一倍。这一过程是通过不断的技术发展实现的。

进一步结合刚才翟老师和国浩老师提到的底层算力优化,我们可以将这种优化映射到模型训练阶段,从而极大地降低成本。当然,我们并不是说DeepSeek的算力可以用1/10的成本实现与国外模型相同的能力,但这与Densing law(能力密度定律)有一定的重叠。

Densing Law更多地强调模型密度的不断提高,这不仅体现在训练阶段成本的降低,也体现在推理阶段。模型可以用更低的推理成本和更快的推理速度完成相同的能力。我们认为,未来AI的发展一定会沿着这条路线前进。过去几年的发展也在不断验证这一点。一个直观的体验是,像OpenAI这样的公司,其API模型的价格(例如 ChatGPT 水平的模型和GPT-4水平的模型)在过去几年中快速下降。这不仅仅是因为价格战,而是因为它们可以用更少的资源实现相同的能力,从而以更低的成本提供服务。

我们认为,高效性是未来AI发展的一个重要方向,也是我们迎来智能革命的一个重要前提。

Q: MoE架构会是通向AGI道路上的最优解吗?

刘知远:我的个人感觉是,其实没有人永远是对的。

在2023年初,OpenAI发布ChatGPT时,它做对了;它发布GPT-4时,也做对了。但当它发布o1时,它做错了——它没有开源,定价策略也出现了失误。这反而成就了DeepSeek。我也不认为DeepSeek选择了MoE架构,MoE就永远是正确的。没有任何证据证明MoE是最优的模型架构。

从学术角度和AI未来发展的角度来看,我认为这是一个开放性的问题。未来如何实现高效性?我认为一定是模块化和稀疏激活的,但具体如何稀疏激活、如何模块化?我觉得这件事情本身应该是百花齐放的。我们应该保持开放性,鼓励学生和从业者像DeepSeek一样努力去探索创新。

所以,我本身不太认为MoE有任何绝对的壁垒,或者它一定是最优的方法。

DeepSeek所做的工作可能也是“摸着OpenAI过河”

Q:DeepSeek技术的爆发,对于中国大模型未来发展道路有哪些启示?

刘知远:首先,我觉得特别值得敬佩的是DeepSeek团队的技术理想主义。因为无论是看他们的访谈还是其他资料,你会发现,那些访谈其实是在DeepSeek大火之前很久接受的,内容非常真实,能够反映他们内在的底层逻辑。从这一点上,我们可以感受到DeepSeek是一个非常具有技术理想主义的团队,以实现 AGI 作为梦想来组建这个团队。我觉得这一点是非常值得敬佩的。

我觉得同时也会看到,DeepSeek的梁文峰之前做量化投资,本身投入自己的资金来开展项目,没有资金上的困扰。那么相对应地,我觉得中国应该为这样的技术理想主义团队提供支持,哪怕他们没有足够的资金,也能让他们没有后顾之忧地去进行探索。我觉得中国已经到了这样的阶段,需要有更多像DeepSeek这样的团队,但又不像DeepSeek这样有资金。能否让他们踏踏实实地去做一些原始创新,做一些出色的工作,这是我觉得非常值得我们思考的第一点。

第二点,我觉得是他们的执行力。DeepSeek今年这两个月一炮而红,大家会觉得很厉害,但实际上,这是经过了多年持续积累的结果。我们看到的是他们不断积累的进步,量变最终产生了质变。我可以告诉大家,几年前,幻方就拿着免费算力去吸引我们的学生,与他们建立联系。当然,也有学生毕业后加入了DeepSeek。所以,这是他们多年努力的结果。我认为这也是技术理想主义推动下的长期主义成果。我觉得国内应该有更多的团队,能够坐得住冷板凳,更加聚焦,在一些重要问题上持续发力,做出有意义的工作。

DeepSeek发展到今天,我认为他们所做的工作可能也是在“摸着OpenAI过河”,以OpenAI为榜样,去探索AGI的实现路径,并努力去做他们认为正确的事情。这个过程非常困难,尤其是随着OpenAI变得越来越封闭,o1复现的难度比当年的ChatGPT更大。但我们会看到,只要有理想和执行力,他们就能做到。所以在我看来,国内应该有更多的团队去学习。具体的技术当然是我们应该学习的一部分,但我觉得应该避免认为因为DeepSeek成功了,所以他们所做的一切都是对的。我觉得不一定他们所用的所有技术都是最先进的。我觉得没有必要因为DeepSeek这次成功用了这样那样的技术,就认为它们全都是对的。我觉得这反而会限制我们的创新。我觉得我们应该学习的是他们的理想,学习的是他们的坚持,学习的是他们的方法论。这是我想分享的第二点。

400亿美元!OpenAI巨额融资有望落地,软银要取代微软成最大投资方

孙正义再次加注OpenAI。

当地时间2月7日,据外媒援引知情人士的消息,日本软银集团(SBG)即将敲定400亿美元对OpenAI的首轮投资,投前估值为2600亿美元。

据报道,软银的首笔资金最快将于春季到位,全部资金将在未来12-24个月内分期支付。该笔融资规模将打破OpenAI上一轮创下的硅谷单轮融资纪录。本轮融资后,不仅OpenAI的投后估值将相较上一轮融资后翻倍,达到3000亿美元,软银也将超越微软,成为OpenAI的最大投资方。

当地时间2月3日,软银CEO孙正义与OpenAI CEO山姆·奥特曼会谈。

就在几天之前,软银刚刚与OpenAI达成协议,将在日本成立合资企业“SB OpenAI Japan”,共同打造名为“Cristal(水晶)”的人工智能产品,为企业提供服务。孙正义表示,软银每年将在OpenAI产品部署上投入30亿美元。

前述消息人士称,此次融资的部分资金预计将用于兑现OpenAI对“星际之门(Stargate)”项目的承诺。

“星际之门”启动,奥特曼“全球路演”

美国总统特朗普在1月21日宣布了“星际之门”项目,软银、OpenAI和美国甲骨文公司(Oracle)三家企业将投资5000亿美元,用于建设这一史上最大的AI基础设施投资项目。软银CEO孙正义将担任“星际之门”项目主席,软银承担项目的财务责任,OpenAI负责公司运营,并自主建设和管理数据中心。

据介绍,项目初始投资为1000亿美元,并计划在未来4年内扩展至5000亿美元,预计将为美国创造10万个就业岗位。

当地时间1月23日,OpenAI CEO山姆·奥特曼(Sam Altman)晒出“星际之门”在美国得克萨斯州首期工厂的视频,第一期已确定在美国得克萨斯州阿比林数据中心基地展开,计划打造10个数据中心。

当地时间2月6日,OpenAI表示正考虑在美国16个州建立数据中心园区,预计每个数据中心园区将创造数千个就业机会,包括建设和运营岗位。但根据最近的报道,“星际之门”在阿比林的首期数据中心只能创造57个就业机会。

除了日本,奥特曼近期还前往了韩国和印度。

2月4日,奥特曼现身韩国,与SK集团董事长会面,又和孙正义一起与三星电子董事长会谈。当天,OpenAI还宣布与韩国最大的社交应用运营商Kakao达成战略合作关系,双方计划共同开发面向韩国市场的AI产品。

奥特曼透露,OpenAI正在积极考虑投资并加入韩国的人工智能计算中心项目,并暗示韩国企业可能会参与“星际之门”项目。

2月5日,印度信息技术部长阿什维尼·维什瑙(Ashwini Vaishnaw)与奥特曼会面,讨论涉及GPU、模型和应用程序的AI战略。

当地时间2月7日,奥特曼又已现身德国,在柏林工业大学参与了AI专题活动。

当地时间2月7日,山姆·奥特曼现身柏林工业大学,

据悉,奥特曼此次“全球路演”还会前往法国、迪拜等地。

DeepSeek震惊硅谷,OpenAI还有“后手”?

OpenAI着急寻求合作和投资,恰逢来自中国的DeepSeek在硅谷引发轰动。

1月20日,中国AI初创公司深度求索推出开源大模型DeepSeek-R1,性能比肩OpenAI o1模型正式版,而训练成本或仅需约600万美元。

如此“物美价廉”,Meta、微软、OpenAI、Anthropic等公司纷纷关注跟进。投资界大佬们也都现身表态,方舟投资(ARK)CEO“木头姐”凯西·伍德表示DeepSeek证明了AI领域成功并不需要那么多钱,加速了成本崩溃;桥水基金创始人瑞·达利欧表示,中国在芯片上或许落后,却在应用上实现了领先,AI竞争比企业盈利更重要,但投资者对AI的狂热助长了美股的“泡沫”,其程度类似于千禧年的互联网泡沫……

奥特曼曾评价称,DeepSeek让OpenAI的领先优势将不会像前几年那么大了,并称个人认为在开源权重模型和研究成果的问题上,OpenAI已经站在了历史的错误一边,需要制定不同的开源策略。

不过,在1月27日的一次采访中,奥特曼表示,DeepSeek的“这种性能并不新颖,我们早已具备这一水平的模型,今后将持续开发更先进的模型”。

2月7日,OpenAI也公开了o3-mini大模型的思维链。不过,与DeepSeek不同,o3-mini的思维链文本并非大模型原始思维链,而是进行过“总结”。对此,奥特曼的解释是,OpenAI正努力整理原始的CoT(思维链)提升可读性,并在必要时提供翻译,尽量保持原始内容的忠实度。

OpenAI大模型o3-mini的思维链文本。

巨额融资和更多的合作方,不仅可以让OpenAI推进算力扩张、模型及智能体(agent)研发,也可以助力其在硬件方面的布局。

OpenAI自2024年底开始已在重组机器人部门,Meta增强现实(AR)眼镜团队前负责人凯特琳·卡利诺夫斯基(Caitlin Kalinowski)已经官宣加入并负责机器人和消费硬件业务。

今年1月末,OpenAI向美国专利商标局提交新的商标申请,涉及人形机器人、XR、智能手表、可穿戴设备等硬件设备。

奥特曼还曾在采访中透露,将与苹果前设计负责人乔尼·艾维(Jony Ive)创立的企业合作,推进开发AI终端,不过公开原型机尚需数年时间。

对于AI开发中不可或缺的芯片,奥特曼表示“公司正在自主研发”,但未透露具体细节。

值得一提的是,当地时间2月4日,OpenAI长期投资的美国机器人初创企业Figure的创始人布雷特·阿德科克(Brett Adcock)宣布将终止与OpenAI的合作。他表示Figure在完全自主研发的端到端机器人AI上已取得重大突破,并将在未来30天内展示一些从未在人形机器人上看到过的东西。

这像极了OpenAI曾与微软达成的协定——一旦达到AGI(通用人工智能)水平,就可以终止与微软的独家合作关系。

OpenAI究竟能否“遍地开花”?外界可以拭目以待。

39元下载软件?上万元教本地部署?谁在利用DeepSeek“信息差”牟利

今年春节,国产AI公司深度求索开发的大模型DeepSeek成为爆款,作为一款开源、免费的大模型,尽管还未实现盈利,但第一批用它“搞钱”的人已经出现了。

2月6日晚上,曾经广受关注的“AI卖课第一人”李一舟在自己直播间兜售创业课程时谈到DeepSeek,称背后有很多创业机会,“这个我就不方便多说了,非常值得大家去学习和使用。”

“如何用DeepSeek赚到100万”“DeepSeek带你躺着赚钱”......在社交媒体上,频频能看到教你如何用DeepSeek实现一夜暴富,在淘宝、闲鱼等平台上,不少商家打着“本地部署”的概念兜售DeepSeek接入教程,标价最高达到10万元,最低仅有0.01元。

澎湃新闻记者查询发现,某热门DeepSeek社区会员费为61元,总会员数超过3600人,在DeepSeek爆红的近一个月里,仅会员费收入就超过18万元。

对于各类利用DeepSeek牟利的投机者,6日晚间,DeepSeek官方发布声明:目前除DeepSeek官方用户交流微信群外,从未在国内其他平台设立任何群组,一切声称与DeepSeek官方群组有关的收费行为均系假冒。

利用“信息差”牟利

DeepSeek最大的特点就是是开源,而在多家电商平台上,有商家公然售卖可以免费下载的DeepSeek软件,并且不加掩饰地告诉记者:“卖的就是信息差。”

无论是元宇宙、Sora还是DeepSeek,每当新一波革命性技术迎来讨论,似乎“卖铲子”的人总是最先挣钱。据新榜数据显示,近7天内,在抖音、快手、B站、小红书、微博、微信等平台上,和DeepSeek相关的内容作品数至少在105万条,日均作品数超15万。

在付费知识社群“知识星球”上,记者搜索到超过百个DeepSeek相关社群,基本内容都是分享DeepSeek相关课程,会员收费从50元到200元不等。

某热门DeepSeek社群收费

不少荐股博主还开发出DeepSeek的炒股功能,在抖音直播间里,记者看到,有博主宣传只要用同花顺等炒股软件接入DeepSeek,就能控制电脑全自动分析股票,在直播间下方还附上了教程和软件的购买链接。记者联系到了其中一位用DeepSeek分析股票的荐股博主,对方称自己已经被封号。

博主在抖音直播间宣传用DeepSeek炒股

除了传统的售卖AI培训课、AI社区付费等套路,售卖DeepSeek本地部署教程成为新的掘金方式,不少商家挂出5万元、10万元高价。

所谓的本地部署,意思是把DeepSeek模型下载到电脑上,然后用电脑的显卡进行推理。闲鱼上一位商家告诉记者,标价5万元是包含主机的价格:“DeepSeek对硬件要求很高,一般普通电脑根本跑不了完整版本。”

“本地部署,精细化AI”“API调用训练”“可以自行投喂数据”在平台上,关于本地部署DeepSeek的教程软件泛滥,从几分钱到几元钱、几十元价格不等,仅凭介绍很难分清有什么区别。

有商家告诉记者,这是因为不同价格售卖的版本不同,价格低廉的大多为蒸馏版DeepSeek,可以进行基础问答但没有推理能力,而满血版DeepSeek需要强大的算力支持,即便付费购买了软件,没有配套的硬件设施也无法运行。

这些商家行为显然就是利用DeepSeek可以本地部署的幌子,真正目的是销售硬件,但性价比对于一般用户而言却无法判断辨别。

AI概念火热,新兴职业涌现

售卖这些五花八门、标价混乱的本地部署课程和软件,是否涉嫌利用DeepSeek非法牟利?

记者查阅DeepSeek官方文件显示,由于是开源大模型,允许本地部署服务,但涉及到商业销售和牟利,就可能涉嫌触犯法律。协议显示,官方提供的模型和工具(如通过Ollama部署)遵循MIT开源协议,协议允许商业使用、修改和分发,但需保留版权声明并明确免责条款。

在遵守MIT开源协议的前提下,第三方提供本地部署技术支持或托管服务是允许的。但若涉及模型权重的商业化销售、未经授权的二次分发,或未履行开源协议义务,则可能构成侵权。

值得一提的是,除了利用DeepSeek赚钱,已经有不少掘金者涌入了AI赛道,例如AI画师、AI视频剪辑、AI文案创作等新兴职业如同雨后春笋一般出现。以某AI绘画社区为例,会员费用为565元,目前共有2万会员,以此初步推算,一年会员费收入就接近千万元。

有AI视频创作者表示,自己利用AI软件春节帮企业制作了以喜庆蛇年为主题的一些短视频,再配上喜庆的歌曲和文字,发布不久后就获得了几万的点击量,挣到了六位数的推广费。也有人通过做AI视频引流,进行橱窗带货,获得了超过8000元的佣金收入。

也有原影视团队转型做AI,以“自然风景+AI”“热门IP+城市地标+AI”的模式,利用AI生成脚本、图片、视频、配音、后期等流程产出成片,在半年内盈利约30万元。

还有人用AI生成文案、用AI作图等,有绘图作者提到,自己通过Midjourney和Stable Diffusion在春节生成了不少AI绘画作品,比如带有福字、舞狮、蛇年等图案的各类壁纸,非常受欢迎。有创业者靠定制AI头像和壁纸的业务,在春节期间收入超10万,“只要抓住机会,这一两年里就能积累巨额财富。”

“目前AI培训领域存在鱼龙混杂、良莠不齐的现象,部分机构缺乏资质,存在夸大培训效果、利用信息差收取暴利费用等情形。”华东政法大学竞争法研究中心执行主任翟巍向澎湃新闻记者表示,依据《反不正当竞争法》《消费者权益保护法》等法律法规,应当对DeepSeek培训领域予以规范和引导,以保障AI培训行业的健康有序发展。

对于突然涌现的大量AI新兴职业,翟巍认为,由于对人工智能投喂的语料(训练数据)可能本身存在侵犯版权、商业秘密或个人隐私情形,因此人工智能生成的作品可能出现衍生的侵犯版权、商业秘密或个人隐私后果。

此外,关于人工智能生成作品的法律属性和权益主体问题,现在缺乏明确的法律规定,这一方面导致利用人工智能生成作品的个人难以依据现有法律主张自身对这些作品享有财产、人格权益,另一方面也导致在人工智能作品侵犯他人权益的情形下,难以确定侵权责任的承担主体。

我国一新成果有望让无人机边飞边充电

我国科学家近期取得一项研究成果,能够让动态无线充电更高效。其未来应用有望让无人机边飞边充电。相关成果近日发表于国际学术期刊《自然·通讯》。

西安电子科技大学电子工程学院李龙教授课题组在无线能量传输和无线定位领域取得突破性进展,构建了一种基于双频超表面的无线传能、感知定位与通信一体化原型系统,实现了自适应追踪的无线能量传输。在这一系统中,超表面不仅实现了精确的目标定位,还能根据实时变化的环境和目标,进行灵活的能量聚焦,实现跟踪式隔空输能。

与传统的无线充电方式相比,该技术具有显著的优势:能够支持多个终端设备在移动过程中进行高效的非接触式无线充电,例如运动中的无人机、智能机器人等,为其提供稳定、高效的电力供应。

据悉,该论文成果以西安电子科技大学为第一单位发表,电子工程学院博士生夏得校为论文第一作者,李龙教授和东南大学崔铁军院士为共同通讯作者。

自主研制,科考+考古!“探索三号”交付启航

今天(12月26日),我国自主设计建造的深远海多功能科学考察及文物考古船“探索三号”在广州南沙正式交付启航。“探索三号”是我国首艘具有覆盖全球深远海探测并具备冰区载人深潜支持能力的综合科考船。

“探索三号”船长约104米、排水量约10000吨,最大航速16节、艏艉双向破冰、续航力15000海里、载员80人。首次完成了全系列极地作业科考操控设备及国内最大水密科考月池系统装备、冰区深海声学探测、通信及定位装备,船舶动力定位系统等国产化技术的攻关和搭载。

在研建过程中,各研究机构、企业和高校等通过对关键核心技术集智攻关,突破了冰区船舶关键设计技术、冰载荷下高精动力定位控制技术、智能船舶控制技术等多项关键技术的垄断瓶颈,使我国载人深潜能力从全海深拓展到全海域。