谷歌预计其更先进的大模型明年将嵌入安卓手机

·智能手机制造商希望借助AI推动手机行业迎来新的“超级周期”。它们押注智能手机的未来,这些设备看起来不像传统智能手机,而是更小,人们可以通过语音激活与之互动。

谷歌对人工智能大模型应用于智能手机的前景充满乐观。谷歌Pixel部门产品管理副总裁布莱恩·拉科夫斯基(Brian Rakowski)日前预计,谷歌更先进的Gemini大模型明年将嵌入智能手机。

大语言模型是能够以近似人类的方式理解和生成语言的人工智能模型。Gemini Ultra是谷歌的顶级大语言模型,参数高达1.56万亿。而OpenAI的GPT-4拥有1.76万亿参数。

谷歌的Gemini正与OpenAI的GPT-4模型竞争。谷歌在压缩模型以适应移动设备方面已取得进展,目前谷歌在其Pixel设备和具有条件的安卓设备上提供了Gemini的小版本Gemini Nano。而Gemini的更高级版本目前只能通过云访问,拉科夫斯基预计,这些版本将于2025年开始在安卓手机上提供。

“Gemini Nano的性能达到了不到一年前我们在线模型的水平。”拉科夫斯基补充,人们可以利用这些小版本模型做很多事。如果沿着这条轨迹走下去,智能手机用户能够更直接、更快速地访问和使用人工智能大模型。“它是即时的,不需要依靠云端连接或订阅。”

据CNBC报道,2023年,全球智能手机销量降至11.6亿部,降至10年来最低点。经历设备销售量大幅放缓的几年后,智能手机制造商希望借助人工智能推动手机行业迎来新的“超级周期”。

但分析师认为未来几年不太可能出现超级周期,因为市场上没有足够的新功能和创新来说服人们更换智能手机。“我们预计不会出现这种繁荣景象。”研究公司IDC数据和分析副总裁弗朗西斯科·杰罗尼莫(Francisco Jeronimo)表示。

尽管如此,越来越多的智能手机制造商正投资人工智能,押注智能手机的未来,这些设备看起来不像传统的智能手机,而是更小,人们可以通过语音激活与之互动。谷歌也在人工智能领域押下巨额“赌注”,力图在与OpenAI等对手的竞争中取得优势。谷歌最近将其聊天机器人Bard更名为Gemini,安卓用户可以下载专用的安卓应用程序来使用Gemini,iPhone用户可以在iOS的谷歌应用程序中使用Gemini。

124页官方报告,实锤美国室温超导研究不端

Ranga Dias苦心经营的室温超导“幻境”终告破灭。

继3月发布Dias造假丑闻的调查报告后,4月6日,《自然》再发长文详细报道了美国罗切斯特大学官方对其学术不端指控的调查细节。

这份长达124页的官方报告显示,罗切斯特大学物理学家Dias涉嫌数据造假、窜改以及抄袭。这项官方调查历时10个月,由罗切斯特大学招募的独立科学家小组进行,于2月8日完成调查。调查团队审查了针对Dias的16项指控,并得出结论:在每一起案件中,他很可能都有学术不端行为。

Dias拥有罗切斯特大学的终身教职。目前,该校正试图在Dias的合同于2024—2025学年结束之前解雇他。

三次调查无果

该调查报告列举了Dias在学术生涯中的欺诈行为,其中包括他曾发表在《自然》上的2篇室温超导研究,以及另外2篇分别发表在《化学通讯》和《物理评论快报》(PRL)的论文。这些文章均被撤回。罗切斯特大学向法院提交的文件显示,这项调查是在美国国家科学基金会(NSF)的要求下进行的。

NSF是美国学术研究的主要资助机构,该机构曾在2021年授予Dias教师早期职业生涯发展计划奖(CAREER),金额高达79万美元。

值得注意的是,此次由NSF支持的调查并非罗切斯特大学第一次对Dias实验室可能存在的问题进行调查。2021年至2022年间,该校就曾对Dias发表在《自然》上的碳硫氢化物(CSH)室温超导论文进行了3次初步调查,只是均以Dias的胜利告终。

天网恢恢,疏而不漏

2022年10月,美国佛罗里达大学物理学家James Hamlin向NSF表达了对Dias工作的担忧。

罗切斯特大学组建了一个由3位物理学家组成的调查委员会以确保这项调查的可信度。他们分别是美国劳伦斯·利弗莫尔国家实验室的Marius Millot和Peter Celliers,以及美国桑迪亚国家实验室的Marcus Knudson。

调查报告显示,Dias伪造了CSH数据并发表。当数据来源受到审查时,Dias和他的合作者兼合著者、美国内华达大学拉斯维加斯分校 (UNLV)物理学家Ashkan Salamat发布了一组捏造的原始数据。

关于原始数据和已发布数据之间差异的疑问层出不穷,于是Dias声称对发布的数据使用了一种复杂的数据处理方法。这种做法将批评者的注意力集中在数据处理技术而不是原始数据上,提供了“看似合理的假象”。

调查报告还显示,Dias曾多次承诺提供原始数据,然而从未兑现。他在对调查结果的回应中写道:“某些原始数据文件的缺失并不能说明它们不存在,也不能说明我有任何不当行为。”

Dias曾多次在数据来源问题上故意误导团队成员和合作者。报告显示,他曾告诉UNLV的合作伙伴,测量是在罗切斯特大学进行的,反过来又告诉罗切斯特大学的研究人员,测量是在UNLV进行的。

Dias还对期刊撒谎。被PRL撤稿的论文—— 一篇关于二硫化锰(MnS2)电学特性的研究,被期刊方查出存在明显的数据捏造。他向期刊审查方提供捏造后的数据而不是原始数据,被PRL认定“蓄意阻挠审查”。罗切斯特大学委托的调查人员证实了期刊的调查结果,Dias将自己博士论文中四硒化锗的电阻数据用于二硫化锰的研究,而二硫化锰是一种性质完全不同的材料。当调查人员就此进行询问时,Dias向他们发送了与发送给PRL相同的捏造数据。

Dias究竟是如何窜改数据的,在镥氢氮化合物(LuH)论文的调查结果中最为清楚。Dias以前的学生帮助调查委员会找到了实验室硬盘上的原始数据。根据原始数据,Dias经常有选择性地遗漏数据,“以掩盖电阻数据中不稳定的下降和跳跃,这些遗漏数据的存在有悖于LuH的超导行为观点”。调查委员会写道。

调查委员会发现,2022年8月27日,当时与Dias一起在罗切斯特大学工作的合著者Sachith Dissanayake警告Dias,研究数据被不当窜改了,但后者置若罔闻。在对调查报告的回应中,他声称Dissanayake误解了数据。

而这些被窜改的数据是LuH论文被接收的关键。

结案定论

2023年12月22日,调查委员会向Dias发送了一份调查报告草稿,而Dias抨击了调查人员的专业知识和诚信。他声称,调查人员的方法“有时可以在阴谋论领域看到”,而且“缺乏强有力的逻辑基础”。Dias还声称,Salamat说服Dias以前的学生反对他,并致信《自然》要求撤回LuH的研究论文。然而事实恰恰相反,《自然》的新闻团队此前曾报道,是学生们主动举报并发送的撤稿请求信件。

Dias在答复中没有提供调查委员会所要求的原始数据。调查人员在他们的最终报告中回应了Dias的指控,称其数据遗漏的解释并不能改变调查委员会的推理或调查结果。

最终,调查委员会认为罗切斯特大学的学生和Dissanayake不是罪魁祸首,而是受害者。调查委员会无法获得UNLV的资源为包括Salamat在内的这些研究人员洗脱罪名,但委员会认为这些人也受到了欺骗,并且没有发现他们“实质性的不当行为证据”。调查委员会给出建议,不应允许Dias继续任教或从事公共或私人资助的研究。他们补充说:“本次调查中发现的证据表明,Dias不可信。”

《纽约时报》诉OpenAI事件持续发酵,多家媒体加入反抗队伍

·继《纽约时报》起诉OpenAI后,美国三家数字新闻媒体于2月28日对OpenAI提起版权侵权诉讼。他们认为, OpenAI 违反了《数字千年版权法案》(Digital Millennium Copyright Act),记者的岗位正受到威胁,而OpenAI却利用记者的辛勤劳动盈利。

围绕OpenAI与《纽约时报》之间的版权侵权诉讼案争议仍在持续。2月29日,澎湃科技(www.thepaper.cn)注意到,近期又有多家新闻媒体对OpenAI提起了版权侵权诉讼。

据美联社报道,数字新闻媒体The Intercept、Raw Story和AlterNet日前正式加入了对抗人工智能未经授权使用其新闻内容的行列,并于2月28日对OpenAI提起了一项版权侵权诉讼。

这些媒体机构表示,他们数千篇报道被OpenAI用来训练聊天机器人,这些内容实际上是在未经许可、付费的情况下“搭便车”(piggybacking)借用了他们的新闻报道。

不过,起诉OpenAI的三家媒体并未提供他们声称被盗用的故事具体案例。

媒体集体控诉OpenAI

The Intercept的首席执行官安妮·查贝尔(Annie Chabel)表示,“在全国各地的新闻编辑室因财务削减而遭受重创的时候,OpenAI 却从我们的内容中获益。我们希望通过这起诉讼,能够向AI开发者发出强烈的信号。”

另据英国《卫报》2月28日报道,Raw Story 和 AlterNet 首席执行官约翰·伯恩( John Byrne) 在一份联合声明中表示:“Raw Story认为新闻机构必须勇敢地站出来面对OpenAI,因为 OpenAI 违反了《数字千年版权法案》(Digital Millennium Copyright Act),记者的岗位正受到威胁,而OpenAI却利用记者的辛勤劳动盈利”。

约翰·伯恩称,Raw Story和AlterNet 的诉讼不包括微软,OpenAI 和微软当下暂未表态。

科技巨头微软及其生成式人工智能合作伙伴 OpenAI 因旗下聊天机器人 ChatGPT 产生的司法纠纷缘起于《纽约时报》。

2023年12月,《纽约时报》以侵犯版权为由起诉OpenAI 及其合作伙伴微软,指控这两家公司未经许可使用其数百万篇文章以训练人工智能模型。不过,《纽约时报》在起诉中并未提出具体的赔偿金额要求,但指出被告OpenAI 应为“非法复制和使用《纽约时报》独特且有价值的作品”和与之相关的“价值数十亿美元的法定和实际损失”负责。

当地时间2024年2月26日,OpenAI要求美国联邦法院驳回《纽约时报》对公司部分诉讼的指控,声称《纽约时报》雇佣黑客通过违反OpenAI使用条款的方式,导致其重复生成《纽约时报》的文章内容,并利用该误导性证据来支持诉讼。

针对OpenAI的指控,《纽约时报》的代理律师伊恩·克罗斯(Ian Crosby)于2月27日回应称,该报只是利用OpenAI的产品查找证据,证明其非法复制了《纽约时报》的版权作品,而非实施所谓的“黑客行为”。

此外,《纽约时报》要求两家公司销毁任何使用到《纽约时报》版权材料的聊天机器人模型和训练数据。

大模型引发的数据问题

这波针对OpenAI的集体诉讼,反映了当前整个媒体行业对于人工智能技术的担忧。媒体的担忧主要集中在生成式人工智能将与成熟的出版商竞争,成为互联网用户的主要信息来源。这将进一步削减媒体的广告收入,并有损在线新闻质量。

业内知名安全专家、从事信息安全行业近20年的上海观安信息技术股份有限公司总经理张照龙日前在接受澎湃科技采访时表示,人工智能生成式大模型在应用过程当中,极易产生风险。“大模型是个知识化模型,如果所有前面的训练数据推演得好,可以把原来训练的敏感数据都还原出来。”他进一步指出,大模型还原程度大致在80%,差一点也有50%。

伴随着生成式大模型的发展,将会带来哪些数据问题?张照龙称,第一个问题是非法采集。张照龙称,模型训练的本质是“喂数据”。一些开放使用的平台,如果没有受到认证,或者有不合法的目的,可能会滥用采集到的数据及用户的个人信息。

此外,大模型本身是否安全也值得关注。张照龙称,即使模型是安全的,依然有人可以利用大模型反推原始数据。例如,有关数据大模型的很多企业在非法获取个人数据中的隐私信息、个人行为等,包括政府数据、行业和企业数据。因此,数据保护是否得当,数据来源是否合法,拿到数据是否会滥用、如何进行管理和控制,都是需要注意的问题。

数字媒介批评者、北京大学新闻与传播学院教授胡泳分析认为,《纽约时报》对OpenAI及微软的诉讼案和其他案例表明,法院目前正试图解决人工智能技术对版权、隐私和数据使用法律的复杂影响,法律格局也在不断变化之中。这场诉讼凸显了促进人工智能创新与保护版权之间错综复杂的平衡。

胡泳称,随着人工智能技术越来越多地展现出生成类人内容的能力,一个具有挑战性的问题也随之凸显:在不违反版权法的情况下,现有内容在多大程度上可用于人工智能开发。无论《纽约时报》起诉OpenAI结果如何,这场诉讼都可能对人工智能行业产生持久影响,影响人工智能公司、内容创作者和法律专家如何驾驭人工智能技术与版权法之间复杂的相互作用。它还将人工智能开发中的伦理考量的重要性推到了风口浪尖,强调了在各个领域负责任地合法使用人工智能技术的必要性。

新华每日电讯:马斯克说AI很快就要比人更聪明,靠谱吗?

美国知名企业家埃隆·马斯克8日在社交媒体上表示,到明年年底或者2026年,新的人工智能(AI)模型可能将超越人类的智力,“比最聪明的人还聪明”。

马斯克的这一预测靠谱吗?人工智能高速发展,人类能不能坐收“红利”?与此同时,人工智能在发展过程当中也会造成很多问题,如何应对其中的风险?

马斯克的预测靠谱吗?

马斯克8日与挪威银行投资管理基金首席执行官尼古拉·坦根的访谈当天在社交媒体平台X上发布。马斯克在访谈中说:“我猜想,到明年年底,我们将拥有比任何一个人类都更聪明的人工智能。”

这一前景受到相关瓶颈的限制。英国《金融时报》介绍,人工智能的发展速度因微芯片供应进入瓶颈期而受到影响,尤其是美国英伟达公司生产的微芯片,其对训练和运行人工智能模型至关重要。马斯克表示,这些限制虽然正在缓解,但新模型正考验着许多数据机构的设备和电网性能。

清华大学战略与安全研究中心特约专家朱荣生告诉记者,人脑消耗功率远低于人工智能运行时所损耗功率,人工智能要达到人类智能水平尚存差距。但从长远看,与人脑相比存在诸多欠缺的人工智能在算法、数据不断“加持”下或最终超越人类智能,而达到这一目标所需的硬件和软件分别为芯片和算法。

马斯克去年成立人工智能初创公司xAI,该公司同年11月推出首款人工智能模型Grok。马斯克说,二代模型Grok 2的训练将于今年5月完成,需要大约2万个英伟达图形处理器(GPU)计算芯片H100,训练进程一度因芯片短缺受阻。继Grok 2,xAI将推出性能更加强大的三代模型,预计需要超过10万个芯片。他说,去年人工智能发展的主要制约因素是缺少高性能芯片,今年,供应限制正转变为电压互感器;再过一两年,限制将是电力供应。

要收“红利”需要国际合作

过去18个月来,包括视频生成工具和聊天机器人在内的人工智能突破已经大大加速了人工智能发展。

《金融时报》报道说,马斯克去年就预测,人类将在2029年“完全”实现通用人工智能。他一直对所谓通用人工智能的发展持乐观态度,认为这种人工智能工具非常强大,以致能在任何领域击败最有能力的人类个体。谷歌旗下人工智能公司“深层思维”的联合创始人德米斯·哈萨比斯今年早些时候预测,通用人工智能或在2030年实现。

朱荣生表示,人工智能的发展首先需要政策、资源与技术支持,许多领域的人工智能“培育”都缺乏相关支持;其次需要国家之间开展合作,但目前许多国际合作受制于地缘政治等多种因素,人工智能的发展受到遏制;第三,人工智能发展受制于文化特性,比如ChatGPT所给出的答案就更符合英文语境,这样一来以单一国家力量发展人工智能可能增加全球人工智能发展的不平衡,也就是数据鸿沟。而上述问题的解决则需要将资金与市场精准衔接,并广泛开展国际合作。

联合国前副秘书长、联合国环境规划署前执行主任埃里克·索尔海姆近日接受新华社记者采访时表示,当前世界需要针对人工智能开展全球合作,这需要中国、美国和欧洲国家等大国密切合作,制定合理法规,从而把握新技术带来的机遇,并从中获益。

如何应对风险?

人工智能降低了生产成本、提高了生产效率,为多个行业的新业态打开了大门。虽然提高了效率,但运用人工智能,造成的问题和风险却不少。

英国《自然》周刊在2023年对科学工作者开展的一项调查结果显示,30%的受访者承认使用人工智能工具帮助写稿。美国《大众科学》月刊网站指出,由于不少研究人员依赖人工智能工具,许多专业期刊中充斥着人工智能工具生成的“胡言乱语”,许多文章使用人工智能的痕迹明显。

早在2014年,美国电气电子工程师学会和德国施普林格出版社的期刊一共删除了120多篇文章,因为这些文章包含人工智能生成的“胡言乱语”。《大众科学》评论说,从那以后的10年里,随着如OpenAI的ChatGPT等更复杂、更容易使用的工具得到广泛应用,各种期刊中人工智能生成的文本几乎肯定会增加。

朱荣生认为,人工智能引发的社会问题蔓延速度较快、范围较广,这一技术不断加剧涉及版权法、著作权、隐私权等法律问题的复杂程度,因此适用于新技术的道德边界和法律规范呼之欲出。

“人工智能时代是一个风险与机遇并存的时代,这一技术给人类社会和命运带来的不确定性或许远大于确定性,”朱荣生说,“面对这一不可阻挡的浪潮,我们需要在人工智能热潮中保持冷静和审慎的心态与思考。”

渐冻斗士蔡磊:每天仍工作十几小时,团队接海量志愿者简历

中新网对话蔡磊:比起金钱,这些东西更想留给孩子。 来源:中国新闻网(02:12)
在经历了流感导致的堵痰、窒息、几乎濒临死亡后,蔡磊又被从鬼门关上拉了回来。他继续投入了紧张的工作中,并在时间允许的情况下出现在破冰驿站直播间,陪妻子段睿直播。

如今蔡磊依旧每天坚持工作十几个小时,不同的是,加入他“破冰”队伍的人越来越多。

蔡磊接受采访。

与其讨论死亡,不如做更有意义的事

2024年的春节前夕,北京的街道上行人车流渐少,奋斗了一年的打工人们,纷纷踏上归乡旅途。但在朝阳区的一间办公室内,蔡磊还在和团队的工作人员们忙着面试、阅读海量的文献资料、回复病友信息。如果不看报道,没人能想到就在一个多月前,他才刚刚从死神手里逃了出来。

2023年底,被渐冻症折磨4年多的蔡磊遭遇了严重堵痰,连续的窒息让他以为自己的生命将要终止在新年前。万幸的是,当时在身边的护士及时抢救,把他从死亡线上拉了回来。

“结束了,以后不受罪了,我到此为止,先走一步了。”对外界谈及那次遭遇时,蔡磊说窒息如同“水刑”一般,让他感到绝望和痛苦,他承认,这种感觉确实给他精神和心理带来了负面影响,因为这种濒死的威胁随时都会再来。

1月8日,他在自己的微博中写道:“带上呼吸机面罩无法说话呼喊,即使窒息自己也没有力量去摘掉面罩,感受随时的与世隔离般的恐惧。我会坚持勇敢,继续全力工作。”

2月4日,他在微博中说:“后来知道,自己不能死,因为家人,因为那么多病友。”

当再次在办公室见到记者时,蔡磊依然露出了轻松的微笑,坐定在镜头面前的他,目光炯炯。

这一次,他并不愿过多讨论有关生与死的话题,因为在他看来,与其去探讨悲观伤感的内容,不如把精力放到更积极的事情上。

他只是给出记者这样一段回答:“当你不面对生死的时候,可能你会按照常规的职业发展,思考如何事业发展得好、挣钱多、自己获得更多财富,但生病之后就不会这样了,就会思考什么是生命中最有意义的事情,把这短暂的时间,投入到这些事情当中。”

蔡磊恢复了,虽然身体上仍被病痛纠缠,但是那个乐观的“斗士”又回来了。

工作中的蔡磊。

“收到近千份志愿者简历投递”

如今,只要身体情况允许,蔡磊都是保持着每天工作十几个小时的节奏,早上9点到办公室工作到晚上11点左右离开,这中间短暂的用餐也常常伴随工作。

“他比以前更珍惜时间了,因为现在做的每一项工作都关系到别人的生命。”段睿告诉记者。

如段睿所说,现在“渐愈互助之家”触达的患者群体数量已经超过1.3万人,每个月几乎都能新增约1000名病友。与此同时疾病发展的速度也是可怕的,仅仅中国病友中每天差不多有60人离世,这场与死神的赛跑争分夺秒。

虽然蔡磊曾对记者笑称自己是“科研个体户”,不过在过去的半年里,“蔡磊团队”这四个字的号召力正迅速扩大,如今的科研团队水平和初始阶段相比已经有了质的飞跃。

“办公室的团队已经扩大,还有来自全世界各个相关研究方向的近70个科研志愿者加入进来。报名的人有很多,去年11月开始对外公开招募志愿者之后,目前已经收到了近千份志愿者的简历投递。”

蔡磊的助理李颖(化名)告诉记者,就连自己也是因为被蔡磊的故事深深触动,主动辞去原有的高薪工作加入了这个团队。

“我自己的家人也是在去年被确诊了罕见病,一度陷入深深的绝望中,当我看到蔡总正在做的事情后,就决定要加入进来。”

如今,作为团队中的重要成员,李颖的作息与工作强度基本也是和蔡磊同频。她说,在这个团队里的成员,能够坚持下来必定都是对这份事业有很坚定的信念。

不止个人,如今蔡磊团队日常收到的信息是海量的,囊括了各行各业,甚至有做空气净化器的厂商主动联系到团队表示希望提供设备。

“想为蔡总提供帮助的人非常多,包括很多技术类企业,很多人留言说,‘我想帮蔡总,但是不知道能帮什么,你能告诉我怎么做吗’。”

从工作进展来看,到目前为止,蔡磊团队正在研发和合作推进的药物及治疗管线已经有一百多条。他发起的渐冻症患者脑组织和脊髓组织捐献工作也有一千多名患者响应,成功捐献已达十余例。

蔡磊妻子段睿接受采访。 

如果还有人在攻克渐冻症,直播会继续做

今年1月底,蔡磊宣布与夫人将再捐助1亿元用于攻克渐冻症的消息引发关注。事实上,蔡磊的事业一直离不开段睿的大力支持。

和蔡磊一样,段睿现在每天的生活也被工作填满,一天工作十几个小时是常态。两个人经常只有晚上直播结束后才有时间碰一下,复盘一天的工作。

如今,段睿负责的蔡磊破冰驿站直播间正在快速成长,疲惫与压力也是必然的。段睿坦言,一周五天的直播对于精神和身体来说都是巨大的挑战。

“每个阶段都有不同的困难,一开始找主播很难,后来自己播,摸索方式也很难。一个事情你没做成的时候不知道自己想的对不对,所以你身边的人,包括你的同事、员工也都会动摇。”

显然,这位北大才女的尝试是成功的,如今直播间的观看人数已经大幅增长。更重要的是,直播间的收入正在为研发提供巨大的支持,并且很多人和资源是通过直播了解蔡磊并主动寻求联系的,这对于药物研发工作的意义无疑是巨大的。

而对于丈夫倾其所有所坚持的事业,段睿说:“很多人都会给别人提出建议,但其实你不知道,他都试过。如果你真的有机会在他的境遇下,你可能无法做得更好,那就不要再说什么。这是我学会的最重要的一课。”

当谈及直播间更遥远的将来时,她告诉记者,“如果未来还有人在做攻克渐冻症的事情,那我会继续做下去,让它作为(资金)来源,如果不是的话,我可能也想休息休息。”

至于未来是否会亲自接棒丈夫的事业,继续攻克渐冻症,段睿表示,“现在看有点远,我可能会试一试,但是我对我的能力是很清楚的,他(蔡磊)所统筹的工作不是努力就能够达到的,需要你有很强的谈判能力,因为每一方都牵扯巨大利益,我还不具备这样的能力。”

资料图:蔡磊的办公室里有很多孙悟空的雕塑摆件。  

或许注定由他来做这件事

“希望每一个遭受困难的人,也能从我们这里汲取一些力量。”

这个春节,蔡磊在录制祝福视频时不忘鼓励正在遭遇困境的网友。乐观、坚毅,这也是他一直以来留给公众的印象。

他在采访中告诉记者,患病后摆在他面前的是一个新的课题——生命剩下4年还是40年,不同的情况下,你要做什么样的选择?

“我的选择就是珍惜4年的时间,去做一件我可能过去40年都做不到的事情,去推动科学的进步,做一件对生命拯救乃至人类进步都有意义的事情。所以我选择放弃过去挣钱很多的事,去做一件在相当长一段时间里可能都没有经济回报的事,但我觉得更有意义了。”

对于自己毫无保留地投入攻克渐冻症事业,蔡磊也看得淡然。

生病后,蔡磊将自己的微信头像改成了孙悟空,并且在家中和办公室摆了很多孙悟空的摆件,他曾说自己希望从孙悟空的抗争精神里汲取能量。这也成了此后媒体热衷于向公众讲述的小故事。

但或许,正如蔡磊身边工作人员所评价的:“他就是他自己,一个独一无二的存在,也注定是由他来做这件事。”

谷歌、英特尔纷纷推AI芯片,科技巨头欲挑战英伟达市场统治

·谷歌推出基于ARM架构的定制CPU“Axion”,性能比通用ARM芯片高30%。谷歌下一代加速器TPU v5p专用于训练规模最大、要求最高的生成式AI模型。英特尔推出用于AI训练和推理的Gaudi 3加速器,比英伟达上一代H100 GPU训练特定大模型的速度快50%。

谷歌表示,新处理器将于2024年晚些时候上市。

人工智能热潮加剧,科技巨头正在寻找人工智能所需的稀缺芯片,摆脱依赖,加速竞争。

谷歌正在制造基于ARM架构的定制CPU“Axion”,支持其数据中心的人工智能工作,让云计算变得更便宜。当地时间4月9日,在拉斯维加斯举行的Cloud Next大会上,谷歌表示,新处理器将于2024年晚些时候上市。

据路透社报道,基于ARM架构的Axion CPU,性能比通用ARM芯片高30%,比英特尔和AMD生产的当前一代x86芯片高出50%。谷歌计划“很快”使用Axion来支持谷歌云上的YouTube广告等服务。

谷歌试图减少对英特尔和英伟达等的依赖,追赶亚马逊和微软等竞争对手。亚马逊网络服务公司2018年推出了ARM芯片Graviton。就在谷歌宣布推出ARM处理器的几个月前,微软公布了为其云基础设施设计的定制芯片。据The Verge报道,微软已经开发了人工智能定制芯片来训练大模型,并为云和人工智能工作负载定制了基于ARM的CPU。

谷歌也在更新其TPU人工智能芯片,周二,谷歌TPU v5p芯片通过谷歌云服务上线。谷歌TPU芯片作为英伟达GPU的替代品用于人工智能加速任务,尽管开发者只能通过谷歌云平台访问它们而不能直接购买。

谷歌云副总裁兼计算和机器学习基础设施总经理马克·洛迈耶(Mark Lohmeyer)表示,TPU v5p是下一代加速器,专门用于训练一些规模最大、要求最高的生成式人工智能模型。单个TPU v5p pod包含8960个芯片,是TPU v4 pod上芯片数量的两倍多。

英特尔也公布了新的人工智能芯片细节,以对抗英伟达的统治地位。当地时间4月9日,在Intel Vision 2024大会上,英特尔推出用于AI训练和推理的Gaudi 3加速器,采用5纳米工艺。Gaudi 3将带来4倍的BF16 AI计算能力提升和1.5倍的内存带宽提升,预计可大幅缩短70亿和130亿参数Llama2模型以及1750亿参数GPT-3模型的训练时间。英特尔表示,Gaudi 3芯片比英伟达上一代H100 GPU训练特定大语言模型的速度快50%。在英特尔测试的一些模型上,它的推理速度比H100芯片更快。

英特尔在Meta开源的Llama模型和阿布扎比支持的Falcon模型上测试了该芯片。英特尔表示,Gaudi 3可以训练或部署大模型,包括文生图模型Stable Diffusion和Open AI旗下用于语音识别的Whisper模型等。该芯片比英伟达芯片的功耗更低。

据路透社报道,Gaudi 3芯片预计今年第二季度向超微电脑(Supermicro)和惠普企业(Hewlett Packard Enterprise)等服务器制造商提供。

过去一年,GPU是人工智能企业的首选高端芯片。英伟达凭借其GPU在人工智能芯片市场上占据约80%的份额。今年3月,英伟达在其GTC大会上推出了H100的继任者,即用于运行人工智能模型的新一代人工智能芯片B200和GB200。

英特尔至强(Xeon)软件副总裁达斯•卡姆豪特(Das Kamhout)表示,确实希望Gaudi 3芯片与英伟达最新芯片相比具有极致的竞争力。“从我们具有竞争力的价格、独特的开放式集成网络、使用行业标准以太网等方面来看,我们相信这是一个强大的产品。”

ChatGPT劲敌现身:Claude3能总结15万单词,长文理解准确率超99%

·Claude 3能总结15万个单词,而ChatGPT只能总结大约3000个单词。用户可以输入大量数据集,并要求Claude 3以备忘录、信件或故事的形式进行总结。

·Claude 3 Opus是Anthropic最强大的新模型,在行业基准测试中的表现优于OpenAI的GPT-4和谷歌的Gemini Ultra大模型。Claude 3 Opus对长文的语境理解准确率超99%。

当地时间3月4日,美国人工智能初创公司Anthropic发布最新大模型Claude 3系列,该系列包含Claude 3 Opus(著作)、Claude 3 Sonnet (十四行诗)、Claude 3 Haiku(俳句)三个版本。其中,Claude 3 Opus是Anthropic最强大的新模型,在行业基准测试中的表现优于OpenAI的GPT-4和谷歌的Gemini Ultra大模型。这家初创企业过去一年融资五笔,总额约73亿美元,由OpenAI前高级成员创立,获得了谷歌和亚马逊的支持。

200秒看懂Claude 3:一键预测世界经济走势(04:00)
可总结15万个单词,长文语境理解准确率超99%

Anthropic表示,Claude3系列是目前市面上速度最快、性能最好的人工智能模型,在推理、数学、编程、多语言理解和视觉方面树立了新的行业基准。

其中,Claude 3 Opus是Anthropic最强大的新模型,在行业基准测试中的表现优于OpenAI的GPT-4和谷歌的Gemini Ultra大模型,尤其在大规模多任务语言理解数据集(MMLU)、研究生级别的谷歌验证问答基准(GPQA)、数学评测集(GSM8K)、编程多语言测试(HumanEval)等方面均超越了GPT-4和Gemini。

 Claude 3 模型与同行大模型在行业基准测试中的表现 

Anthropic在官网公布了Claude 3模型与其他模型在多项性能基准上的比较数据。数据显示,在MMLU上,Claude 3 Opus得到86.8%的得分,而GPT-4得到86.4%。一些差距则较大,例如在编程多语言测试上,Claude 3 Opus得到84.9%的得分,而GPT-4得到67%,这或意味着Claude 3 Opus对于新手学编程的更友好。

此外,Claude 3能够总结高达15万个单词,而ChatGPT只能总结大约3000个单词。用户可以输入大量数据集,并要求Claude 3以备忘录、信件或故事的形式进行总结,这一能力使得Claude 3在处理长文本方面超过ChatGPT。其中,Claude 3 Opus对于长文的语境理解准确率超99%,“在某些情况下甚至能识别出有哪些词句是人为插入到原始文本中的。”Anthropic在官网提到。

Claude 3 Opus对长文理解的准确度

Claude 3系列中的Haiku能在3秒内读取arXiv(arXiv是一个收集物理学、数学、计算机科学、生物学论文预印本网站)上一篇数据密集的研究论文,并附带图表和图形。

Claude 3强大的视觉能力
 

值得一提的是,与前几代模型相比,这也是Anthropic首次提供多模态支持,允许用户上传图片、文档、图表和其他类型的非结构化数据进行分析和回答,但Claude 3不能生成图像。

不过,Anthropic也在官网最后表示,尽管与之前发布的大模型相比,Claude3在生物知识、网络知识和自主性等相关指标上有所进步,但它仍处于人工智能安全等级2 (ASL-2)。Claude红队评估得出的结论是,目前这些模型带来灾难性风险的可能性非常小,但公司会持续监测未来的模型。

Anthropic拒绝透露训练Claude 3花了多长时间,也不愿透露花了多少钱。目前,Claude 3 Opus和Claude 3 Sonnet 已在全球159个国家上线,用户可在 Claude.ai 中使用,Claude 3 Haiku也将很快与公众见面。

Anthropic总裁丹妮拉·阿莫代(Daniela Amodei)表示,如果客户需要处理最复杂的认知任务,比如准确处理复杂的财务分析,他们会选择Claude 3 Opus,尽管价格更高。据路透社报道,Claude 3 Opus对输入的每100万token收取15美元。相比之下,OpenAI对其GPT-4 Turbo模型中输入的每100万token收费10美元。而Sonnet和Haiku比Claude 3 Opus更便宜。

创始人系OpenAI前高级成员,过往一年融资73亿美元

Anthropic是美国的人工智能初创公司,由OpenAI前高级成员丹妮拉·阿莫代和达里奥·阿莫代(Dario Amodei )兄妹于 2021 年创立,后者曾担任OpenAI研究副总裁。

Anthropic公司

据外媒报道,Anthropic公司创始人之一达里奥·阿莫代领导的一群研究人员因对OpenAI发展方向产生分歧而离开OpenAI,他们担心微软对OpenAI的首次投资会使其走上更加商业化的道路,从而偏离其最初对高级人工智能安全性的关注。

达里奥·阿莫代在领英上的介绍包括他曾担任Open AI研究副总裁和谷歌高级研究科学家。在OpenAI,达里奥·阿莫代从2016年工作到2020年,负责监督公司GPT-2和GPT-3语言模型的创建。

丹妮拉·阿莫代在创办Anthropic公司之前曾在Stripe担任风险经理,负责监管运营、用户政策和承保。后来成为OpenAI安全与政策副总裁,在确保人工智能技术的安全和道德使用方面发挥了关键作用。

Anthropic这家初创该公司将自己的产品定位为比ChatGPT更安全的替代品。过去一年Anthropic完成五笔融资,总额约73亿美元。据《金融时报》报道,谷歌在2023年2月向Anthropic投资约3亿美元。亚马逊公司于2023年9月向Anthropic投资40亿美元,作为战略合作伙伴关系的一部分。

亚马逊公司在一份新闻稿中表示,亚马逊计划在其产品和服务中使用Anthropic的人工智能技术,而Anthropic将依赖亚马逊网络服务作为其主要的云服务,并协助亚马逊开发其定制的人工智能芯片。亚马逊表示,作为交易的一部分,它将获得这家人工智能初创公司的"少数股权",但没有提供更多细节。

第十三届吴文俊人工智能科学技术奖揭晓,评出70个获奖项目成果

今天(13日),我国智能科学技术领域的最高奖——吴文俊人工智能科学技术奖在苏州工业园区揭晓,共评出70个获奖项目成果。

第十三届吴文俊人工智能科学技术奖共评出70个获奖项目成果,包括杰出贡献奖、自然科学奖、技术发明奖等,涉及生成式AI、大模型和通用人工智能等重点领域。鹏城实验室主任、中国工程院院士高文摘得人工智能最高成就奖。高文院士领导创立了中国的视频编解码技术标准体系AVS,推动中国数字视频产业实现了核心技术的跨越发展。

中国工程院院士 鹏城实验室主任 高文:最近这五六年,我带的团队其实主要做的是中国算力网的事,这个就是为今天的人工智能发展,底层底座将来大模型的训练来提供一些强有力的支撑。

吴文俊人工智能科学技术奖由中国人工智能学会发起主办,得到首届国家最高科学技术奖获得者吴文俊院士的支持,是面向智能科学技术领域的社会力量科技奖励。活动现场,由中国人工智能学会与科技部新一代人工智能发展研究中心主办的全国人工智能应用场景创新挑战赛也正式启动。

中国人工智能学会副理事长 清华大学教授 孙富春:高校科研院所和企业的结合也越来越深入,我们可以展望,人工智能赋能产业过程正在蓬勃发展,将进一步推动我们国家制造业发展,各行各业的推动和发展。

2023年度全国政协委员优秀履职奖获得者施一公:怀着科学家精神去履职

在浩瀚的科学星空中,施一公无疑是一颗令人瞩目的星——不仅是因为他在生命科学领域的杰出贡献,更因为他将“科学报国”作为人生信条。无论是在全国政协的讲坛上,还是在西湖大学的教室里,他都以行动诠释着什么是真正的“科学家精神”。

两年50余场科普讲座

“什么是生命科学?生命科学基础研究是如何推动医药创新的?未来,生命科学是否将面对持久的挑战和无限的可能?对此,我们应如何应对?”面对讲台下的全国政协领导、部委负责同志、各级政协委员,施一公娓娓道来。

“20世纪初的孩子们是怎样在战火烽烟中艰苦求学的?”在浙江省“百名科学家进中小学课堂”启动仪式讲授第一课,施一公从1872年清政府官派30名幼童赴美留学前的合影说起,鼓励青少年学子“用科学武装自己”,为国家和民族作出贡献。

过去两年来,施一公挤出时间先后走进全国50余所中小学校,开展科普讲座,用深入浅出的语言将科学知识变得通俗易懂,对青少年进行科学启蒙,推动科学思想的传播和科学精神的弘扬。

一所不重论文数量的大学

一直以来,施一公都有一个为国家培养杰出人才的梦想。2008年,已是美国普林斯顿大学终身讲席教授的他,毅然辞职回到母校清华大学任教。国际知名神经科学家、时任美国国立健康研究院研究室主任鲁白说:“他是海外华人归国的典范和榜样。”

“世界一流大学,有两个共同特点:一是有一支世界一流的教授队伍,二是有一个适合一流教授队伍生活工作和学习的软环境。”2018年,经过精心筹备,一所社会力量举办、国家重点支持的新型高等学校——西湖大学在杭州诞生。作为校长的施一公希望通过这所高起点、小而精的研究型大学,为中国高等教育、科技改革探索一条新路。

“西湖大学建立并坚持创新导向的科学评价标准,只注重研究成果是否在该领域不可或缺,是否能解决国家重大科技问题。”施一公告诉记者,成立5年来,西湖大学已在全球范围内引进了226位优秀科学家担任博士生导师。

“这里是科学家的乐园。”有人这样评价西湖大学。从2020年初周强实验室团队首次解析出新冠病毒细胞表面S蛋白受体结合结构域与细胞表面受体ACE2全长蛋白复合物的三维结构,“看清”新冠病毒入侵人体的那一刻,到2021年吴建平团队首次解析精子活化开关CatSper通道体,再到2023年何睿华团队发现首例具有本征相干性的光阴极量子材料、朱伟团队提出研究相变及临界现象的新方法等等,30余项“世界首次”的重要原创突破在西湖大学诞生,代表中国智慧和中国水平在世界科学舞台崭露头角。

一份用科学家精神书写的履职答卷

“‘世界一流’高校是什么样的?要培养什么样的人才?”

“基础研究强调的是从‘0’到‘1’的突破,我们必须集聚一批基础研究的顶尖科学家,在各个领域布局、深耕,为我们的核心技术攻关打下坚实基础。”

“新型研究型大学的创办与建设,不是喊口号、不是戴帽子,需要脚踏实地、真抓实干。”这些话均出自施一公在全国“两会”期间的提案和建言。在履职全国政协委员期间,他曾多次将科研与社会问题相结合,递交了非常有价值的调研报告和建议。

2023年,他牵头提交了《关于加快推进研究型医院建设》《加强研究型大学在传染病科研攻关体系中的作用》两件政协提案,在全国政协科协、科技界联组会议、2023中关村论坛、第十五届中国生物产业大会等重要会议作主旨发言,为我国加快建设教育强国、科技强国、人才强国建言发声。

作为全国政协科协23组召集人之一,施一公在联组会议、小组讨论等活动中坚持建言资政和凝聚共识双向发力。他怀着“科学报国是一个科学家的最大荣耀”的理想信念,号召引领科技工作者去私心、敢担当、有作为,把个人奋斗与国家发展紧密联系起来,为实现中华民族伟大复兴贡献重要力量。

施一公委员获奖感言:

作为一名科教工作者和改革实践者,获得全国政协委员优秀履职奖,我感到莫大的荣幸!

政协委员是人民政协的履职主体,是“广泛凝聚共识,广聚天下英才”的重要力量。自2018年起,我先后担任两届全国政协委员,深切感受到以习近平同志为核心的党中央对人民政协事业的高度重视,见证了人民政协聚焦党和国家中心任务履职尽责的点点滴滴。对我而言,政协不仅提供了发挥作用、施展抱负的广阔平台,也更加激发了我勤勉履职、为国效力的责任担当。

六年来,我始终坚持围绕党和国家的中心工作,立足专业所长、扎根科教一线:一方面,全力以赴创办西湖大学,初衷就是希望为国家科技创新和拔尖人才培养蹚出一条新路,为科教体制机制改革探索有益经验。得益于党和国家、浙江省及社会各界的大力支持,学校创办至今,在多个研究领域百余个学术方向走在前列,产出了30余项“世界首次”的重要原创突破,代表中国水平在世界舞台崭露头角。同时,基于创办西湖大学的实践和心得,我在“两会”期间先后提交了加强基础学科人才选拔培养、推进研究型医院建设等多项提案,努力提出具有前瞻性、战略性和可行性的意见建议,为加快建设教育强国、科技强国、人才强国建言发声。另一方面,我充分发挥在专业领域的优势,团结凝聚更广泛的力量扩大履职成效。我积极参与全国政协科协、科技界联组会议、2023中关村论坛、第十五届中国生物产业大会等重要会议;不忘本职工作、奋战科研一线,率领团队围绕阿尔兹海默症发病机理取得了一系列突破性进展。同时,积极投身科普事业,希望能把自己对科学的无限热爱传递给莘莘学子。此外,我还参与主持“中学生英才计划”,主持新基石研究员项目,尽心竭力推动国家基础研究发展、扶持青年人才成长。

人心是最大的政治,共识是奋进的动力。这份荣誉对我既是莫大的鼓励,更是一份沉甸甸的责任。今后,我定当牢记习近平总书记嘱托,始终坚持为国履职、为民尽责,不忘初心、砥砺前行,纵深推进西湖大学改革实践,为国效力、积极履职,努力在新征程上作出新的积极贡献!

拓展观察宇宙视野极限!中国天眼已发现超900颗新脉冲星

记者从中国科学院国家天文台获悉,截至目前,被誉为“中国天眼”的500米口径球面射电望远镜(FAST)已发现超900颗新脉冲星,其中FAST优先和重大项目之一的银道面脉冲星巡天项目发现了650余颗脉冲星。900余颗脉冲星中至少包括120颗双星脉冲星、170颗毫秒脉冲星、80颗暗弱的偶发脉冲星,这些发现极大拓展了人类观察宇宙视野的极限。

据了解,从1967年人类发现第一颗脉冲星到FAST在2017年10月发现首颗脉冲星的50年里,全世界总共发现的脉冲星只有3000多颗。“中国天眼”目前已发现的脉冲星数量,是国际上同时期其他望远镜发现脉冲星总数的3倍以上。另外,“中国天眼”拓展了人类对脉冲星辐射强度的观测范围,其发现的900余颗新脉冲星中,大多数是世界其他望远镜难以发现的暗弱脉冲星。

专家介绍,最新发现的近百颗暗弱的偶发脉冲星与正常脉冲星相比,辐射流量密度要低一个量级。对这些偶发脉冲星的研究对于理解银河系中恒星死亡后形成多少致密中子星残骸以及揭示未知的脉冲辐射物理过程具有重要意义。

目前,FAST每年观测时间稳定在5300小时左右,为持续产出科研成果起到了重要的支撑作用。