DeepSeek真帮黄仁勋了,你们怎么不信呢?

文章来源:直面AI

图片来源:由GPTNB生成

北京时间3月19日凌晨,站在圣何塞GTC大会的舞台上,连黄仁勋自己都调侃:GTC是AI届的超级碗。

几周以来,外界已经对黄仁勋在GTC的演讲万分期待。


这个演讲可不好做,在DeepSeek的冲击之下,英伟达今年的股价已经下跌了12%。

这不再是发布新产品,高喊AI就是未来就可以完成任务的演讲,今年,黄仁勋需要回答很多问题。

而这场持续了两个半小时的演讲也的确和往年有很大的不同,黄仁勋在一开始就花了很长的时间去解释为什么推理时代缩放定律没有死、为什么英伟达依然非常重要。

而后,他不仅拿出了Blackwell的超大杯产品,还透露了下一代芯片,甚至下下代架构,时间一直蔓延到2028年。压轴出场的,则和黄仁勋勾画的AI发展路线图中的最后一站“物理AI”相关。

黄仁勋拯救了英伟达股价吗?至少从当日来看,截至收盘英伟达股价跌了3.43%,总市值缩水至2.82万亿美元。

到底是市场还需要几天时间消化,还是黄仁勋“游说”失败,还得等等看。

演讲要点:

  1. 发布超大杯Blackwell Ultra,性能提升1.5倍。
  2. 下一代AI“超级芯片”Vera Rubin,计划2026年底推出,并透露下下代芯片架构为Feynman,计划2028年推出。
  3. AI工厂的操作系统Dynamo,推理框架,资源利用最大化,搭配Blackwell强上加强。
  4. 推出“AI超级电脑”DGX Spark、DGX Station,提高本地运行大型AI模型的能力。
  5. 宣布网络组件的最新动作,推出Spectrum X和Quantum X交换机。
  6. 发布首个开放式人性机器人基础模型Isaac GROOT N1;并宣布与谷歌DeepMind和迪士尼研究院合作开发Newton开源物理引擎。

01、现场“开课”,

黄仁勋:你们真的都搞错了

自从号称训练只用了几百万美元的DeepSeek推理模型问世,世界就没有停止对英伟达的质疑。

起先,黄仁勋不语。然后,他开始发声,在采访中和财报会议上表示推理时代仍然需要大量计算,仍然需要英伟达的力量。

这次,他终于把这点摊开揉碎地说明了一番。

在发布会上,老黄拿出例子,让Llama3.3(LLM的代表)和DeepSeek R1(推理模型的代表)回答同一个问题:

“在我的婚礼上,需要7个人围坐同一桌。我的父母和岳父岳母不能挨着坐。此外,我妻子坚称她在我左手边的话,拍照更好看。同时,我需要坐在伴郎身边。我们怎么安排座位?如果我们邀请牧师和我们坐一起呢?”

看完这个问题,大部分人可能已经头大了。要回答它,不仅要识别其中包含多少个不同的需求,还要同时满足所有需求。有意思的是,最后又有一个进一步的问题,需要先回答主问题再补充这个问题的答案。

Llama 3.3非常简单粗暴,回答得很快,只用了439个tokens。但是,它的回答并不正确,未能满足所有要求。快、省但对于提问的人来说无用。

DeepSeek R1则反复思考,尝试了很多可能,反复检验答案,最终消耗了8559个tokens,才最终给出了答案。时间久,消耗大,但是给出的答案准确。

图

而每一个token生成的背后,都是整个模型的加载。推理模型更复杂,也就需要更多地计算。DeepSeek R1的参数规模达到6800亿,下一代有可能达到数万亿参数规模。

两相对比,DeepSeek R1比Llama 3.3多生成了20倍的tokens,计算需求高出150倍。

“大模型推理是一种极限计算。”老黄表示。

通过这个对比,老黄很直观地告诉大家:推理模型也许预训练的时候消耗少,但推理起来可是实打实的吸金兽啊。英伟达GTC的官方博文中,把Tokens视为AI的语言和货币。

“去年,关于扩展定律Scaling Law,全世界几乎都预测错了。”老黄在台上再次强调。他进一步指出,如今扩展定律从一个变成了三个:预训练、后训练(微调)和推理。

图

那英伟达在推理时代要做什么呢?两方面:一方面,让芯片能在单位时间内处理更多tokens,另一方面,让单位算力的成本和能耗降低。

黄仁勋此前就在财报会议上表示,Blackwell就是为推理而生的,这次演讲中在说清楚推理模型为什么需要更多算力之后,黄仁勋也拿出图表,展开讲了讲这一点。

以Blackwell和Hopper做对比,都是1兆瓦功耗,Hopper数据中心每秒生成250万tokens。Blackwell数据中心提高了25倍,如果是推理模型,则比Hopper好40倍。

图

这让图表中出现了一个向上鼓的曲线,这个曲线正是黄仁勋想让各位AI制造商关注的“赚钱要点”。

黄仁勋称,成本是AI输出的token,收益就是用户获得的token。如果纵轴是前者,横轴是后者,横轴扩张更多时——也就是收益比成本扩张更多时——一个漂亮的利润弧线就出现了。

图

为了强调Blackwell是为推理而生这一点,老黄甚至不惜“拉踩”Hopper,称:“当Blackwell开始大量出货的时候,就算你送Hopper,别人基本也不会要的。”

以前老黄总说,(英伟达AI芯片)买得越多越省钱,现在他更进一步,告诉大家,买得越多越赚钱。

02 软硬兼施,

Blackwell超大杯与“AI工厂操作系统”Dynamo

花了40分钟讲明白为什么英伟达依然能打,为什么说Blackwell是为推理而生之后,黄仁勋当然还得说说新产品。

首先是Blackwell Ultra,专为AI推理时代而打造,Ultra的后缀大家也不陌生了,超大杯。

“我们专为这一刻设计了Blackwell Ultra,一个多功能平台,(利用它)可以高效地进行预训练、后训练和推理。”

其中GB300 NVL72在一个机架规模设计中连接了72个Blackwell Ultra芯片,并包含36个基于Arm Neoverse的Grace CPU。较上一代性能提升1.5倍,与Hopper相比收入潜力提高50倍。还是以DeepSeek R1为例,老款Hopper运行这个模型时每秒只能处理100 tokens,而GB300 NVL72每秒能处理1000 tokens。

图

这意味着用户获得回答的速度大大提高。

而HGX B300 NVL16系统相比于Hopper一代,推理速度提升11倍,计算能力提升7倍,内存大4倍。

英伟达一直都有软硬兼施的策略,此前也针对自家的芯片做了不少优化(不过,DeepSeek的开源周展示的一些优化甚至比英伟达还强),这次黄仁勋也同步官宣了开源推理框架Dynamo。

黄仁勋将之称为“AI工厂的操作系统”。这样说可能有点抽象,具体来说,Dynamo像一个交通指挥官,帮助GPU之间实现更好的通信。对思考和生成可以进行独立优化,高效利用资源。如此一来,(还是回到演讲开头强调的token问题上)每秒就能产生更多token了。

不过,黄仁勋也表示,Hopper虽然也可以用Dynamo优化,但是效果不会那么明显。

为了推理而生的Blackwell再加上为推理优化而生的Dynamo,就是强上加强,DeepSeek R1的吞吐量一下提高30倍。

03 下一代更好

2028年还不够远,黄仁勋勾勒AI发展路径图

除了现在,黄仁勋当然还得谈到未来。

英伟达下一代AI芯片Vera Rubin首次走到台前,黄仁勋介绍,该名称来源于天文学家Vera Rubin(以暗物质研究著称)。

其中CPU Vera内容容量是前代的4倍多,内存带宽是前代的2倍多,而GPU Rubin讲配备299GB的HRM4。

用老黄的话说就是“几乎所有细节都是新的”。

图

这一代Grace Blackwell(GB)将在今年下半年发货,Vera Rubin将在2026年下半年发货。

黄仁勋也预告了Vera Rubin的超大杯,Rubin Ultra,对比GB300性能提升13倍,预计2027年下半年发货。

除此之外,连Vera Rubin之后的下一代AI芯片架构也被揭露,它被命名为Feynman,这个名字同样取自于一位科学家,对量子计算领域有突出和贡献的Richard Phillips Feynman。黄仁勋预告,Feynman甲沟将于2028年登场。

此外,值得注意的是,在演讲一开始,黄仁勋给出了AI的发展路线图,从2012年深度学习突破的起点AlexNet开始,经历Perception AI(感知AI,这个阶段AI主要用于理解数据,如识别语音、图片等)、Generative AI(生成式AI,也就是现阶段的以ChatGPT为代表的技术)。

图

接下来,已经看到苗头的是Agentic AI(代理AI),从简单的数据生成到执行任务。

而最终,AI的终极目标是Physical AI(物理AI),实现从软件到硬件、从虚拟到现实的跨越。让AI具备物理行动能力,如机器人和自动驾驶技术的发展。

英伟达作为AI计算的核心玩家,显然希望引领这一进程。

对物理AI这部分的具体展开,在黄仁勋的此次演讲中占比并不算高,但作为压轴出现,足见其重要程度。

舞台上出现了《星球大战》中的小机器人Blue,它在舞台上走来走去、摇头晃脑,看起来充满好奇心,不得不说看起来就非常灵动。

图

这个机器人搭载了英伟达Isaac GR00T N1,号称是全球首个开源且完全可定制的人性机器人基础模型。模型包含双系统架构,一个系统负责快思考,另一个负责慢思考。据英伟达介绍,该模型能轻松掌握抓取、移动等复杂人物。

图

与此同时,黄仁勋还宣布正在与谷歌DeepMind和迪士尼研究院合作下一代开源仿真物理模型Newton,专为机器人开发而生。

“通用性机器人的时代已经到来。”

04 老黄委屈,

英伟达推出好产品还远远不够

英伟达的高速增长也一直伴随着“泡沫”担忧,很长的一段时间,这家公司不断推出新的产品,但市场波动时有发生。很多次财报发布时,明明业绩全线飘红,黄仁勋也大表信心,股价还是会抖三抖。

“我们发了新东西,但人们立刻就会说,好,然后呢?这放在任何公司身上都不是正常都。”

这次,黄仁勋很少见地在GTC的舞台上倒了点苦水:“这不是买个笔记本电脑”。他表示,这既需要计划,也需要资源和人,规划是以几年为计的。

也许这也解释了为什么黄仁勋这次演讲持续了两个半小时(去年不到两小时),为什么他一口气掏出这么多成果,为什么AI芯片连2028年的下下代都透底了,为什么在最后拿出了AI发展路径的最后一站“物理AI”的最新成果。

老黄这次该讲的、能讲的都讲了,尽力了。

至于人们还会不会问“然后呢”,他也管不了了。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

2025中国AI开局:硝烟即将燃尽,对抗还是共生?

“这个春节没闲着。”不止一位AI公司的高管,在2025年开工后这样感慨。


中国AI行业,正以前所未有的速度加速狂奔。

DeepSeek不光是在春节期间轰炸了美国科技圈,也倒逼整个中国AI行业在春节前后都紧锣密鼓地赶进度——发模型,接产品,搞开源。

“半夜发新品”,成为了中国AI公司们的新常态:无论是最近爆火的Manus,还是通义最新开源的推理模型QWQ-32B,“经常一觉醒来,又被什么黑马公司和新技术轰炸。”

一日三变的行业,时常轰炸着AI从业者的神经。

这些“黑马”的公司们,虽然以“杭州六小龙”声名大噪,但AI公司真正密度最高的地区,依然是“宇宙中心”五道口的周边5公里内——这是清华系和中科院自动化所的势力范围,培养中国顶尖AI人才最多的两所高校。

图片来源:由GPTNB生成

为了招聘清北的人才,DeepSeek创始人梁文锋把北京办公室放在了清华南侧约2公里的融科大厦;智能体Manus背后的公司,则藏在北京海淀区花园路社区的办公园区里,毗邻字节跳动。

曾经的“宇宙中心”,又在大模型的加持下恢复了荣光。

在五道口一个十字路口的周围,就坐落着智谱、百川智能、生数科技、面壁智能、无问芯穹、趋境科技等多家AI明星创业公司。

铁打的写字楼,流水的创业公司。在大模型发展十倍于互联网的速度时,每家公司都在玩命狂奔,否则可能活不过五道口“枣糕王”。

在这里的每一家咖啡厅,你都可能撞到聊AI的从业者;晚上聚会后,有人会转身回公司继续加班到凌晨。

图片

机遇的兴奋和内卷的焦虑,是这里空气的味道。

2025年的第一季度即将过去,AI公司的爆红和洗牌时刻发生,产品在各种测试集上的排名不断变换。

2025年,是行业内期许的Agent(智能体)爆发之年,也可能是基础大模型之争迎来终局的一年。

短期内,技术优势将是争取时间窗口的最佳武器。而在这段时间内,一场针对着场景、流量、人才的拉锯战正在展开,手握更多资源的挑战者,和占据先发优势的守擂者,两者都在拼命奔跑。

预期调整:基模之战

收尾、垂类竞争加剧

如果用一个词连接2024和2025,“预期调整”恰如其分。

一年过去,王者不再。曾经如日中天的OpenAI渐渐被竞争对手Anthropic超越,最新发布的大模型GPT-4.5也不再给业内带来轰动,更多是失望。新的技术和产品仍然高频出现,挑动着从业者的情绪。

就连去年不相信AGI、拒绝看任何一家AGI公司的朱啸虎,也在看到DeepSeek后直呼“我肯定会投”。

认知的反复颠覆,频繁地发生在AI公司的掌门人身上。

提到过去一年AI发展的关键词,容联云副总裁&诸葛智能创始人 孔淼向光锥智能表示,2024年对于大模型的市场价值预期调整,从完全buy in模型能力,到开始关注应用,从技术驱动到业务参与。

“无论是对技术的调整,还是对商业化的规划,大家的预期都在进行调整。”孔淼说。

从OpenAI出走的科学家ilya宣告“预训练达到上限”、用于训练的公开数据早已耗尽,到传闻中的GPT-5亦未如期而至,到国内六小虎之一的零一万物宣布放弃超大模型预训练,再到DeepSeek横空出世,打破算力桎梏。

图片

2025年开局的前两个月,AI圈的变动已经掀起了国内外的一场地震。

以春节期间爆火的DeepSeek来说,它的出现为什么能够让从业人士振奋?DeepSeek将给行业带来什么样的意义?

像素绽放 PixelBloom(AiPPT.cn)创始人兼CEO 赵充将它归纳为三点:开源带来的技术红利、C端AI应用的成本门槛降低、中国AI“场景定义技术”进入新阶段。

赵充表示,DeepSeek的开放策略倒逼全行业重新思考技术垄断的边界。此外,其引发的成本革命将决定商业终局。

“当千亿参数模型的推理成本从‘开超跑’降到‘骑共享单车’,意味着AI应用终于能规模化服务普通用户。” 赵充说。

在此基础上,一众产品也将迎来“场景定义技术”的新可能——谁能用更低的成本解决更具体的问题,谁就能重新制定游戏规则。这也是中国创业者最擅长的战场。

另外,DeepSeek也加速了基模大模型的终场战争。有多位人士向光锥智能表示,预计基础大模型之战会在2025年杀出结局,尘埃落定。

开年起,零一万物宣布退出超大模型预训练,坦率地公布了公司从追求AGI到聚焦商业化落地的转变。而其他几家公司的变动也在持续发生:MiniMax首次发布了开源模型,以“线性注意力”机制代替了传统的transformer架构;在众人视野中沉寂的百川智能年后发布了首个全场景推理模型Baichuan-M1-preview,王小川依然专注医疗领域的应用。

图片

李开复曾提及,“超大模型是大厂才能玩的游戏”,而对于其他五家公司来说,烧钱、攒人才的庞大战争同样难以持续。

但DeepSeek爆火后,大模型依赖算力的故事似乎又被改写,大厂资源似乎又输给了极致的技术创新。

生数科技联合创始人兼总裁唐家渝看到,一批有技术优势的企业弯道超车的机会。他告诉光锥智能,从DeepSeek身上能明显看到技术从算力依赖变为算法依赖,这意味着过去大厂拥有的算力资源不再是明显优势,一批有核心技术门槛的大模型创业公司,将利用自身算法等技术优势快速占领市场。

相比之下,对于六小虎接下来的梯队变化,多数人更看好以B端业务为主的公司们。

多位业内人士向光锥智能表示,在这场大模型创业公司的战争中,to C的公司可能会更早结束战争,而to B的公司相对存活时间更长。

“相对于C端来说,B端其实有防御纵深,它是大厂纯靠流量打不下来的一个地方。”赵充告诉光锥智能,to C的公司很难抵抗字节“豆包”和腾讯“元宝”两家的竞争压力,但像智谱等拥有一批B端客户的公司来说,这些是能靠得住的,B端也是更适合前期商业化的模式。

除了通用大模型的竞争,一些正在趋于成熟的垂类行业竞争也在加剧。

以AI视频为例,在这个Sora、可灵、生数、海螺等选手“神仙打架”的赛道,已经从最初的PPT形态,向着更加拟真的质量进化。

对于越来越“卷”的AI视频生成赛道发展进程,唐家渝的判断是,这场战争会在今年划下句号。

“今年,国内AI视频生成领域可能只会留存3家顶尖企业,全球是5家。”

在唐家渝的眼中,2025年,AI视频生成已经来到了一个“人人可用”的阶段。对于没有做视频经验的小白来说,也能轻松上手。

“人人可用”的背后,是AI视频的“不可能三角”正在被逐步打破,即速度、成本和质量可以兼得。

在赵充看来,AiPPT.cn在国内的战争早在2024年就已经完成,“只需要巩固优势即可”。接下来,他们的重点将会放在海外市场。

如果说生成式AI像一个夹心饼干,除了基础大模型和应用层之外,身处中间的AI Infra一直被认为是确定性很强、但并非那么性感的生意。

关注AI硬件领域的投资人林松告诉光锥智能,2025年,AI Infra领域会更加“卷”。

“这些企业至少能活,也能有零售、有利润,但是如果行业找不到一些特别大的增长空间的话,我觉得增速可能会快速减少,这个时候一旦卷起来就比较难受。”林松说。

林松表示,经历过2023年的指数级增长阶段,2024年的投资放缓是一个正常现象,既是因为竞争态势稳定,也是一个去泡沫的过程。“2023年投的大多是从0到1的企业,所以肯定是重金投入,越到后面,公司需要的资金(比例)也会降低。”

砸钱、整队,

中国的巨头确实会跳舞

在这场逐渐收紧的战争中,大厂队正在付出更多的人力和财力All in AI。

免费、开源、联动DeepSeek都是开胃菜,每当有新的细分领域的机会出现,大厂想要上车的决心迫切极了。

新的现象级产品出现后,焦急的一批人中一定有大厂的身影。

有大厂AI产品负责人向光锥智能表示,Manus引爆AI圈的当天下午,他所在的组专门拉了会议,紧急讨论:“Manus到底是怎么实现的”、“最快我们多久能复现”。

在追逐技术之外,大厂们正在用场景和生态提前布局,调整随时都在发生,排名的变化可能只是一夜之间。

这种调整首先体现在大厂一再变化的组织架构上。从字节到阿里、再到腾讯,将大模型研发团队和to C产品团队拆分成了一步必下的棋。

阿里的AI to C战略正在一天比一天清晰。从2024年末,归属于阿里云的通义App团队并入阿里智能信息事业部,再到今年,夸克和通义千问完成合并。

有接近阿里的人士向光锥智能评价,夸克团队打法凶猛,通过把商业化偏弱、工程师性更强的通义千问团队并给前者,靠夸克的4000万DAU,直接可以把流量导入给后者。

今年,腾讯也同样加快了分拆团队的步伐。在刚刚过去的两个月中,腾讯先后将腾讯元宝从TEG事业群调整至CSIG(云与智慧产业事业群);将QQ浏览器、搜狗输入法、ima等产品团队,从PCG(平台与内容事业群)转入CSIG(云与智慧产业事业群),将经由AI再升级的产品放在一起发力。

图片

如果说2024年,还有大厂处在观望和试水阶段,到2025年,所有大厂都在押注超级 AI应用诞生的可能性,并不惜一切代价调用人才和金钱。

“在起跑的第一年,团队还没调好是很正常的,”有业内人士告诉光锥智能,“从2025年上半年开始,各公司的老板都会选出最强选手带队,重新排兵布阵。”

比如过去两年在AI上反应比较慢的腾讯,有前腾讯的技术中层向光锥智能分析,腾讯在人才、经验的积累上,在大模型来临之后,没有很好地应用到AI发展中。比如之前专注于机器学习的腾讯优图团队,并未接手AI视频模型的训练工作,而现有人员调转向新的视觉模型架构方向的过程中,也很难快速切换方向。

调整团队之外,大把砸钱也是大厂的常态。相比于创业公司,资金池充足的大厂在硬件端投入更加雄厚。

年后,几家大厂陆续公布的未来规划,透露着相同的野心。1月23日,路透社爆料字节跳动今年将拨出超过200亿美元,用于AI芯片、数据中心以及其他硬件。2月24日,阿里宣布,将在未来三年中投入超过3800亿元,用于建设云和AI硬件设施,其总额已超过过去十年总和;百度次日宣布,将投入110亿元用于AI基建。

但在不确定性更强的AI 2.0时代,真金白银不一定换来奇迹,洗牌随时都在发生。

在被称为“AI Agent之年”的2025,生态既是大厂弯道超车的希望,也是小厂望尘莫及的壁垒。

有人利用DeepSeek推广自家产品,有人则在新鲜血液的启发下及时调转船头,走向开源之路。

前两年,坚信“闭源才能带来更好商业化”的李彦宏,开始积极拥抱开源。不仅旗下旗舰模型文心一言4.5大模型宣布将于6月30日开源,还决定将文心一言旗下所有模型全部免费供应。

图片

“我在过去几个月中学到的是,开源可以帮助你获得更多关注。我们正处于AI、生成AI创新的早期阶段,更快的传播将有助于提高采用率,但也有助于更多的人尝试这项技术,从而在应用层促成创新。”在World Governments Summit 2025峰会上,李彦宏这样谈论开源。

从文本大模型开源起,这股“开源风”也在多模态领域中延续下去。2月25日,“开源大户”阿里再度开源万相2.1视频生成模型;3月6日,腾讯在此前开源文生视频模型的基础上,再度开源图生视频模型。

目前,备受瞩目的四家大厂中,阿里、腾讯和百度均已坚定了走开源的路。相较于前三家,致力于打造“AI应用工厂”的字节跳动,目前还在闭源。

在做基础模型上,字节仍然在招兵买马,或许对内部自研模型有着更高的期待。

2月17日,在谷歌Gemini工作的吴永辉博士加入字节跳动,据悉将担任大模型团队Seed基础研究负责人,专注大模型基础研究。

从张一鸣熬夜看论文、拉作者聊天,到部门早早调整,调兵遣将,先后成立负责AI应用的部门Flow和主管大模型技术的Seed,看得出,字节押注AI的决心一天比一天强烈。

有接近字节的人士告诉光锥智能,相比于前几个月,字节在Q4阶段的发展速度变得更快了。这是由于字节整体公司战略高度再度提升,其投入的各种资源继续“加码”。

遵循着“大力出奇迹”的打法,字节把豆包抬到了同类产品中Top 1的位置。不过,这个位置并非高枕无忧。

“从豆包的视角来说,它的第一竞争对手是腾讯,其次才会是百度和夸克,”有受访者向光锥智能表示,“不过,其实潜在的最大威胁者是华为,加上智能终端的优势,华为将会成为最有力的竞争对手。”

对抗还是共生,

创业公司怎么选?

创业公司在“卷”上,丝毫不输给巨头。

随着时间的推移,压在创业公司身上的压力正在加剧。面对大厂有流量、有场景壁垒,创业公司是对抗还是共生?

通往AGI的第二年,融资困难、不够挣钱,已经有不少创业公司倒下。它们之中最好的结局可能就是被某家大厂收购,比如被谷歌纳入麾下的Character.AI,更惨的则是公司宣告破产,而员工还在走仲裁,试图要回拖欠的工资。

但在这一轮AI行业的发展中,针对创业公司的收购玩法发生了一定改变。收购方不再大方地把一家创业公司的员工和财产全部接收,而是只挑走核心人才和算力设备。当一家公司的核心被掏空,剩下的只是躯壳。

在越发艰难的创业环境下,“不碰大厂的生意”成了创业者们心照不宣的原则。

从OpenAI到DeepSeek,技术创新,依然是掀大厂桌子的最有效路径。

回顾AI 2.0时代和AI 1.0时代的差异,作为两个时代的亲历者,唐家渝能明显感觉到两者之间的异同。

“两个时代都靠积累,但AI 1.0时代更多靠的是成熟经验的积累或获取,比如方案明确的标注数据,具有模型调参经验的成熟人才,只要资源到位,事情基本就能做成。”唐家渝说,“但AI 2.0时代具备更多的不确定性,处于技术的发展期,解决技术难题的路径并不确定,还需要创业公司基于自己的认知循序渐进。

但也正因为如此,创业公司才有弯道超车的机会。

图片

不过这代创业者和2014年不同,在创业之初,很少有公司能不考虑和大厂之间可能存在的战争。对于创业公司来说,如何活下去,也是一开始就必须考虑的问题。

对于更偏向应用的AiPPT.cn来说,他们在第一天就确立好了自己和大厂共生的打算:通过合作的方式,借助大厂抢占尽可能多的流量入口,成为垂类赛道的头号玩家。

“我们的定位不是通用智能体,而是垂类智能体,所以我们跟所有大厂基本上都是合作关系。”赵充说,“目前国内大约30个核心大厂玩家,其中一半以上都选择和AiPPT.cn独家合作。这一块的话我们在国内几乎没有竞争,几乎是断层第一。”

通过和大厂平台、智能硬件端等渠道的联动,赵充表示自己总能够得到免费的流量。“比如联想去年AIPC的出货量到Q2增长30%,我就跟着它走就行。”这样做的好处是,无需在投流上花费太多成本,也能尽可能触达更多用户。

图片

赵充分享,在2024年结束之前,AiPPT.cn已经顺利突破千万用户大关。

在用户增长层面,AiPPT.cn的思路也同样突出了和大厂避免竞争的想法。

“我们得和大厂做错位,我们做品(产品)之前都会先和大厂沟通,避开那些高频刚需的品。”赵充说,“像PPT其实是低频刚需,这样可以尽可能选择和大厂做互补。”

在赛道的选择判定上,一些创业公司也在遵循着避让的思路。其中,一些公司选择了规模小的市场,它们不在大厂的射程范围内;另一些公司则选择啃下那些对大厂来说更费力的硬骨头。

“市场规模太大的,基本上都是大厂射程范围内,大厂的战略部门其实都是很聪明的,所以那些能赚大钱的都不要考虑。”赵充说,“业内交流的时候,有朋友分享自己的经验,超过10亿的市场他都不会去做。

专注于金融、客服领域的容联云,做的就是“啃硬骨头”的工作。在孔淼的眼中,大模型发展带来的新订单,更多还是需要交给行业服务厂商完成。

“大模型厂商做投标,拿到了会把行业应用场景相关的工作分包出去。”孔淼解释道,因为企服需要行业经验的沉淀,所以大厂一般会选择交给垂类领域的服务商。

大模型能力只是解决了很多场景的AI泛化能力,但它只占据所有需求的20%,剩下80%落地的脏活累活也好,但是你站在一个行业应用厂商的角度来讲,它可能就是一个产品标准。”孔淼说,“行业内客户的这些工程项目和技术需求,大厂一看80%做不了。其实,不是他没有技术能力做,是他没有knowhow(行业专业知识),所以不太能做这么细的市场。”

和大厂业务线有部分重合,生数科技的做法则是,通过技术优势拉开时间窗口,再从细分领域尽可能多地占据用户心智。

“共存是一个极有可能发生的事情。”唐家渝表示。对于生数科技来说,他们在不断探索技术能力的同时,也在B端和C端的应用落地上发力。

“从战略层来说,我们首先会在AI视频生成的一些细分应用行业站稳脚跟,比如泛娱乐、动漫等,为一些面向C端消费者的平台提供B端服务。” 唐家渝说。“比如现在用户提到AI视频生成动漫,包括日本在内的国内外地区用户的第一选择就是生数科技Vidu,我们希望占据更多类似这样的行业赛道,成为用户的’第一选择’。”

以动漫为例,只需要创作团队画几个关键帧,中间的一些片段全部可以交由AI生成,这会大幅缩减制作成本和时间。比如,在动画剧集的制作环节,普遍成本在1分钟10万左右,但Vidu可以在实现相同视频效果的同时,将成本降到原来的不到十分之一。

“之前我们承接的电影《毒液》官方宣传片,是一个水墨版本的动画,帮助制作团队减少了约90%的后期时间。”唐家渝说。

图片

在C端层面,唐家渝分享,他们目前正在关注由新技术催生的新内容消费模式,随着AI时代的到来,这些新的内容不一定最适合长在抖音、快手上。在内容形式演变中,新的机会点正在诞生。

找准自身定位和规划,创业公司才能在2025年跑得更远、更久。

2025,智能体的“爆发之年”

用户对AI的感知越来越明显。

当身边的家人也能随时随地打开豆包提问;当更多写报告、写论文、做PPT的活被人们习惯性地扔给了AI,没有人会再质疑AI是泡沫,而是在铺天盖地的新产品中不断地尝试和摸索。

翻开最近的App Store应用排行,免费榜单中位列前七的应用,有四个是AI应用。DeepSeek位列榜首,其次是字节豆包、腾讯元宝和阿里夸克。

图片

而从2024年开始,一批“千亿俱乐部”的C端应用玩家已经出现。根据AI产品榜统计,截至2月,以DeepSeek为首的11个产品已经突破千万访问量。

多位业内人士对光锥智能表示,2025年会是智能体的“爆发之年”。

就在3月初,Manus的出现和爆火,正是2025年“智能体之年”的一个强有力的符号。

“更少结构,更多智能(Less structure, more intelligence)”,喊出口号的Manus证明了,当下大模型能力的溢出已经到达了一个临界点,在底层架构能力足够支撑的情况下,如何将能力串联在一起,让智能体在规划、执行的流程中尽可能少犯错,这考验的是AI公司们的产品力。

和以往不同的是,其他追赶的企业需要时间去复现甚至超越同样的技术,往往需要更长的时间,但这次,复刻在不到1天的时间内完成了。

无论是3个小时开源出“Open Manus”的MetaGPT,还是打出“0天复刻”、目前市面上复刻表现最佳的OWL。它们的存在都证明,风口来临之前,早有人在同方向做着同样的事。

“单一任务执行完成的Agent,一定会在今年实现。”Pokke AI创始人朱哲清在锦秋基金的分享会中表示。

而一批借助AI能力升级或新创的App,也将在今年迎来爆发。

从必要条件——成本来看,得益于大模型基座成本的优化,一些AI应用厂商早已经实现了收支平衡,即使不做付费产品,也能靠CPC(浏览广告付费)的模式打平成本,实现盈利。

制作过“哄哄模拟器”的开发者王登科最近公开分享,其团队AI陪伴应用“独响”在免费用户依然可用的情况下,基本达到了收支平衡。“我们不为大模型烧钱,并可以养活团队。”

一些行业正在被AI改写,甚至颠覆。以SaaS行业来说,微软CEO萨提亚·纳德拉曾经做出过预测:AI Agent (智能体)将从根本上改变 SaaS 的定义,它甚至会终结一部分原有的服务模式。

大模型出现后,已经在一些行业应用落地之后加速,原来我们以为是5-10年,现在是3~5年,很多企服公司一定会被干掉。”孔淼说。以前大模型是起到辅佐人力的作用,而现在,代理可以完成一些多业务流程自动化的过程,再实现多智能体协同,这是一个很大的颠覆。

AI和SaaS的结合过程中,一开始,AI将先通过大模型能力为企业增加竞争力,从而提升客单价,出现增量。以客服为例,原先只是单纯的在线机器人,现在它可以做一些客户沟通记录总结,企业再针对这项服务单独收费。

但放到中期来看,这部分增长的市场迟早会萎缩。孔淼告诉光锥智能,通过使用工具做大部分提升,(容联云)将把原有的这种SaaS软件流程替换掉。“我们不再需要后台有训练师、业务流程配置师,而是自动通过大模型去配置流程,那么原有的软件服务将会被端到端的代理软件替换掉,蚕食原有的市场。

此外,通过Agent代替人力,能够大幅提升人效比,这相当于把原来的软件及服务变成真正的软件服务,让用户真正按效果付费。

比如在金融领域,当券商需要响应政策,把质检纳入业务范围内,大模型的介入就帮助这些公司节省了人力资源。

不过,受制于行业知识壁垒,以及一些行业对隐私性、准确性的特殊要求,AI在千行百业的落地仍然需要时间。

“AI在金融行业中的融合是必然的,只是一些需求的落地需要解决,这属于时间问题。”孔淼说。“金融现在的落地点,需要经历业务流程和数据调优流程,软件工程RAG的落地需要时间。从以前压根不可能规模化,到现在,需要时间来帮助行业重塑业务流程。”

不过,仍然有一些赛道还尚未迎来明显的拐点,需要等待技术成熟和团队找到差异化优势。

以AI硬件赛道热门的AI眼镜来说,林松认为,这个赛道目前还是大厂更具备优势。

“耳机、眼镜,都和手机息息相关,如果有手机生态、供应链和行业用户的认知、用户渠道、内容衔接,相比之下肯定(手机厂商)更有优势。”林松说,“作为新的创业公司,你得有足够新的创意,且具有一定护城河,才有可能突出重围,避免被大厂快速攻破技术门槛。”

在确定和不确定中,正如唐家渝所言,AI 2.0时代,新的可能性仍在不断涌现,而跑在前列的团队不能只是经验依赖型。AI公司,需要通过提升人才密度和人效比来加速奔跑。

赵充还向光锥智能分享了他的感受:

“回顾这三年,2023年可能还有人不相信AI,2024年基本所有人都相信AI,并且投入其中。2025年,所有的App基本上都会被AI改造一遍,所有的行业全部明牌,大家拼的就是执行力。”赵充说,在过去的一年,他的团队人数翻了一倍。

AI时代的群体疾驰,恰如互联网时代的又一缩影。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

西湖大学开发ESM-Ezy:一种用于挖掘高性能酶的深度学习策略

图示:相关 MCO 的晶体结构。(来源:论文)

编辑 | 白菜叶

UniProt 数据库是生物催化剂发现的宝贵资源,但预测酶功能仍然具有挑战性,尤其是对于低相似性序列。


识别具有增强催化性能的优质酶更加困难。

为了克服这些挑战,西湖大学的研究团队开发了 ESM-Ezy,这是一种利用 ESM-1b 蛋白质语言模型和语义空间相似性计算的酶挖掘策略。

利用 ESM-Ezy,研究人员鉴定出具有优异催化性能的新型多铜氧化酶 (MCO),在至少一项性能(包括催化效率、耐热、耐有机溶剂性以及 pH 稳定性)方面优于查询酶 (QE) 的成功率达到 44%。

值得注意的是,51% 的 MCO 在环境修复应用中表现出色,其中一些表现出独特的结构基序和独特的活性中心,从而增强了其功能。除 MCO 外,40% 的 L-天冬酰胺酶比 QE 具有更高的比活性和催化效率。

因此,ESM-Ezy 为发现具有低序列相似性的高性能生物催化剂提供了一种有前景的方法。

该研究以《ESM-Ezy: a deep learning strategy for the mining of novel multicopper oxidases with superior properties》为题,于 2025 年 4 月 6 日发布在《Nature Communications》。

科学家通常会从通过序列相似性网络(SSN)分析确定的簇中随机选择候选酶。然而,这种反复试验的方法通常效率低下,并且会延长发现过程。

此外,尽管 PLM 最近已成功用于指导蛋白质工程、抗体设计、酶功能评估(如 CLEAN 和 TM-Vec)和远程同源性检测(如 PLMSearch),但它们尚未用于探索低序列同源性区域中酶的催化特性。西湖大学团队开发的 ESM-Ezy 解决了这些以前未解决的挑战。

图示:ESM-Ezy 工作流程。(来源:论文)

ESM-Ezy 是一种由 ESM-1b 辅助的深度学习策略,用于探索具有低序列相似性的新型 MCO,从而以高成功率改善催化性能。

通过使用小型但高质量的数据集对 ESM-1b 进行微调,并根据与查询酶(QE)的较短欧几里得距离选择候选者,研究人员成功识别出具有低序列相似度(大多低于 35%)的新 MCO,表现出优异的催化性能。

图示:对新挖掘的 MCO 和 QE 进行评估。(来源:论文)

几乎 89% 的测试 MCO 成功催化了 2,2’-连氮-双(3-乙基苯并噻唑啉-6-磺酸)二铵盐 (ABTS) 氧化,其中 44% 与 QE 相比,至少一种催化性能有所增强,包括更高的催化效率、更好的热和有机溶剂耐受性以及更宽的 pH 范围。

研究人员发现硫是迄今为止报道的最耐热的 MCO 之一,在 80°C 下半衰期长达 156.9 分钟,并首次用独特的 Cu-Mn 杂原子中心表征了 Bfre。

该团队还评估了新发现的 MCO 在无介质生物修复应用中的性能。53% 的 MCO 比 QE 更有效地使 Remazol Brilliant Blue R (RBBR) 脱色。Talbi 在室温下降解了氯霉素 (CAP),其性能优于之前的真菌系统。

此外,Bcece 在孵育 48 小时后显示出降解 39.4% 黄曲霉毒素 B1 (AFB1) 的能力,与其他细菌 MCO 在温和条件下相比,表现出更优异的无介质降解效率。

为了评估 ESM-Ezy 方法的普遍适用性,研究人员将其应用于 l-天冬酰胺酶(l-天冬酰胺酰胺水解酶;EC 3.5.1.1),该酶可催化 l-天冬酰胺水解为氨和 l-天冬氨酸。这种酶已显示出显著的治疗潜力,特别是在治疗儿童急性淋巴细胞白血病方面。

图示:对新挖掘的 MCO 进行生物修复的评估。(来源:论文)

他们对 ESM-1b 进行了微调用于搜索 l-天冬酰胺酶。他们选择了来自枯草芽孢杆菌 168 的 l-天冬酰胺酶 (UniProt: O34482) 作为 QE,并确定了五种候选酶。

与 QE 相比,A0A3N5F6J4 和 H1D2G7 分别表现出约 2.0 倍和 4.1 倍的比活性以及 2.0 倍和 3.0 倍的 kcat。这些结果表明,ESM-Ezy 可以成功识别除氧化还原酶之外具有优异催化性能的酶。

总体而言,ESM-Ezy 帮助研究人员丰富了 MCO 库,提高了催化活性并增加了结构多样性,促进了它们在各种工业环境中的应用。

ESM-Ezy:https://github.com/westlake-repl/ESM-Ezy

论文链接:https://www.nature.com/articles/s41467-025-58521-y



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

召回率98.5%,开源混合学习系统精准预测生物大分子中金属结合位点

编辑丨&

金属离子是许多蛋白质中用于蛋白质功能推断和工程化的重要成分,其复杂性与结构催化等作用有关。现如今的技术在应对过渡金属离子的建模,特别是在瞬时、可逆和浓度依赖性调节位点等难题时,显得有些乏力。


汕头大学医学院、湖南大学与美国弗吉尼亚大学(University of Virginia)带来了一种混合机器学习系统,名为 PinMyMetal(PMM)。这个系统旨在准确预测生物大分子中的过渡金属定位和环境,适用于四面体和八面体几何形状。

PMM 优于其他预测因子,在配体和坐标预测方面实现了很高的准确性。它擅长预测调节位点(中位偏差 0.36 Å),在定位催化位点(0.33 Å)和结构位点(0.19 Å)方面表现出卓越的准确性。

该研究以「PinMyMetal: a hybrid learning system to accurately model transition metal binding sites in macromolecules」为题,于 2025 年 3 月 28 日刊登于《Nature Communications》。

图片

模型使用与测试

PMM 系统采用混合学习方法,根据不同的几何形状来识别 MBS。对于四面体配位,该算法使用基于 CH 的方法,专注于 C 和 H 残基,而对于八面体配位,它采用基于 EDH 的方法,考虑 E、D 和 H 残基的组合。

在这个系统中,基于 CH 和 EDH 几何结构的模型需要大量修改,以适应这些金属的不同化学性质、较弱的配体结合和更灵活的配位。

系统首先应用几何约束来识别候选位点,重点关注基于特定氨基酸组成的适用于四面体和八面体几何形状的配体对。然后以完整协调性的一半进行区分,划分为低协调位点的集成学习模型(LCS)与高协调位点的 Pearson 相关系数(HCS)。

预测的配体与至少 50% 的实际配体重叠时,被标记为正预测。在如锰,铁等过渡金属上,这类高准确性的召回率超过了90%。不过由于某些并发症,该程序可能会将某些实验位点排除在考虑范围之外,例如配体之间距离超过 4.5 Å 的位点或配位原子为主链肽键的 N 或 O 的位点。

在混合系统中,团队采用不同的策略为 LCS 和 HCS 的候选站点分配确定性分数。对前者采用了两个独立的集成学习模型,分别检测 CH 站点与 EDH 站点;对后者则计算其预测位点曲线与相同算法对函数值 C 的相应标准曲线之间特殊系数的平均值。

图片

对于金属类型识别,团队还使用测试集和 Metal3D 中看不见的数据集来评估模型。两个数据集的混淆矩阵都表明,PMM 在预测 Mn 和 Zn 结合位点方面表现稳健。

具体点来说,Mn 在测试集中的准确率为 88.6%,Zn 为 65.9%,而 VIII 的预测准确率在测试集中为 57.5%,这表明,虽然 PMM 可以有效地区分 Mn 和 Zn,但在区分 VIII 与 Mn 或 Cu 方面仍然存在挑战。

除了准确预测已知的实验结合位点外,PMM 还识别了许多未知的、推定的 MBS,包括未在实验结构中确定的 LCS 和 HCS。

虽然分辨率不足可能不支持此模型中金属离子的直接原子建模,但 PMM 提供了一种替代方法来模拟中低分辨率冷冻电镜结构中与金属离子有关的配位键。

此外,PMM 不仅准确预测蛋白质结构中的金属 MBS,还准确预测复杂结构下的金属 MBS,并成功预测了由残基 C670、C667、C685 和 C688 协调的锌结合位点,与实验确定的位点的最小距离偏差为 0.025 Å。

图片

相较于其他预测变量

PMM 与其他 MBS 预测因子的比较侧重于关键特征,例如输入数据要求、预测方法、输出数据和响应时间。与 Metal3D 等其他几种预测器不同,PMM 提供详细的配体信息,并且可以预测具有 CHED ≥ 2 配体的位点。

此外,PMM 提供的结构模型和金属离子位置比 ZincBindDB 和 znMachine 等不提供金属离子位置或结构模型的预测器具有更高的准确性。

进行不同种类的数据集的代表性预测因子与 PMM 进行比较的实验中,评估的一个数据集被排除在 PMM 的算法中以免出现偏差。尽管如此,PMM 还是实现了 98.5% 的召回率。

图片

开源的 PMM

PMM 预测器代码是开源的,允许对等方在本地下载、运行和编译。团队还提供了在线版本,方便进行基于 Web 的预测,增强了实际应用中的灵活性和易用性。

进行的实验与验证表明,PMM 是一款能根据局部几何和化学微环境预测金属离子位置和配位配体的新系统,在 MBS 中的应用表现出卓越的准确性和效率性能,为科学界提供了一种快速预测 MBS 的方法。

这个系统适用于检测金属结合位点、识别金属类型,还引入了一种创新算法,可显著减少筛选疏水性对比函数和确定候选金属离子位置所需的计算资源。

虽然在特定的实验下可能无法观测到金属结合状态,但不能说给定晶体结构中不存在 MBS 并不能保证它在相关的生物过程中不存在。因此,PMM 凭借其能力可以从任何已知的实验或计算方法都无法获得的角度来研究候选金属结合蛋白。

论文链接:https://www.nature.com/articles/s41467-025-57637-5



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

200B参数击败满血DeepSeek-R1,字节豆包推理模型Seed-Thinking-v1.5要来了

字节跳动豆包团队今天发布了自家新推理模型 Seed-Thinking-v1.5 的技术报告。从报告中可以看到,这是一个拥有 200B 总参数的 MoE 模型,每次工作时会激活其中 20B 参数。


其表现非常惊艳,在各个领域的基准上都超过了拥有 671B 总参数的 DeepSeek-R1。有人猜测,这就是字节豆包目前正在使用的深度思考模型。

图片

字节近期官宣的「2025 火山引擎 Force Link AI 创新巡展」活动推文中提到,4 月 17 日首发站杭州站时,豆包全新模型将重磅亮相,这会是 Seed-Thinking-v1.5 的正式发布吗?

图片

Seed-Thinking-v1.5 是一款通过深度思考提升推理能力的模型,在多个权威基准测试中展现出卓越性能。在具体评测中,该模型在 AIME 2024 测试中获得 86.7 分,Codeforces 评测达到 55.0 分,GPQA 测试达到 77.3 分,充分证明了其在 STEM(科学、技术、工程和数学)领域以及编程方面的出色推理能力。

图片

除推理任务外,该方法在不同领域都表现出显著的泛化能力。例如,在非推理任务中,其胜率比 DeepSeek R1 高出 8%,这表明了其更广泛的应用潜力。

从技术架构看,Seed-Thinking-v1.5 采用了混合专家模型(Mixture-of-Experts,MoE)设计,总参数量为 200B,实际激活参数仅为 20B,相比同等性能的其他最先进推理模型,规模相对紧凑高效。

为全面评估模型的泛化推理能力,团队开发了 BeyondAIME 和 Codeforces 两个内部基准测试,这些测试工具将向公众开放,以促进相关领域的未来研究与发展。

先来看看其具体表现。

在数学推理方面,在 AIME 2024 基准上,Seed-Thinking-v1.5 取得了 86.7 的高分,与高计算量的 o3-mini-high 差不多。

由于 AIME 2024 已经不足以彰显前沿模型的差异,豆包团队还使用了另一个更具挑战性的评估基准 BeyondAIME,其中所有问题都是人类专家新整理编写的。结果可以看到,虽然 Seed-Thinking-v1.5 的成绩超过了 R1 和 o1,但相比于 o3 和 Gemini 2.5 pro 还有所差距。

在竞赛编程方面,在 Codeforces 基准上,该团队没有采用之前的依赖 Elo 分数的评估策略,而是采用了基于最新的 12 场 Codeforces 竞赛的具体评估方案。

具体来说,他们报告的是 pass@1 和 pass@8 指标,其中 pass@k 表示模型能否在 k 次尝试内解决问题,即从 k 次生成的提交中选择最佳结果。之所以选择报告 pass@8,是因为能提供更稳定的结果,并且更接近实际用户提交模式。

结果来看,Seed-Thinking-v1.5 在这两个指标上均超过 DeepSeek-R1,不过与 o3 的差距仍旧比较明显。该团队表示未来将公开发布这个评估集。

在科学问题上,Seed-Thinking-v1.5 在 GPQA 基准上得分为 77.3,接近 o3 的表现。该团队表示,这一提升主要归功于数学训练带来的泛化能力的提升,而非增加了特定领域的科学数据。

豆包也测试了 Seed-Thinking-v1.5 在非推理任务上的表现。这里他们使用的测试集尽力复现了真实的用户需求。通过人类对 Seed-Thinking-v1.5 与 DeepSeek-R1 输出结果的比较评估,结果发现,Seed-Thinking-v1.5 获得的用户积极反馈总体高出 8.0%,凸显了其在复杂用户场景处理能力方面的能力。

下面我们就来简单看看豆包是如何创造出 Seed-Thinking-v1.5 的。

开发高质量推理模型有三大关键:数据、强化学习算法和基础设施。为了打造出 Seed-Thinking-v1.5,该团队在这三个方面都进行了创新。

数据

推理模型主要依赖思维链(CoT)数据,这种数据展示逐步推理过程。该团队的初步研究表明,过多非思维链数据会削弱模型探索能力。

研究团队在强化学习训练中整合了 STEM 问题、代码任务、逻辑推理和非推理数据。其中逻辑推理数据提升了 ARC-AGI 测试表现。而数学数据则展现除了优秀的泛化能力。

另外,他们还构建了一个新的高级数学基准 BeyondAIME,其中包含 100 道题,每道题的难度等于或高于 AIME 中最难的题目。与 AIME 类似,所有答案都保证为整数(不受特定数值范围的限制),这能简化并稳定评估过程。

强化学习算法

推理模型的强化学习训练常出现不稳定性,尤其对未经监督微调的模型。为解决这一问题,研究团队提出了 VAPO 和 DAPO 框架,分别针对基于价值和无价值的强化学习范式。两种方法均能提供稳健的训练轨迹,有效优化推理模型。参阅机器之心报道《超越 DeepSeek GRPO 的关键 RL 算法,字节、清华 AIR 开源 DAPO》。

奖励建模

奖励建模是强化学习的关键,它确定了策略的目标。良好的奖励机制能在训练时提供准确的信号。团队针对可验证和不可验证的问题使用不同的奖励建模方法。

  1. 可验证问题
    通过适当的原则和思维轨迹,团队利用 LLMs 来判断各种场景下的可验证问题。这种方法提供了超越基于规则的奖励系统局限性的更普遍解决方案。

团队设计了两个递进式的奖励建模方案:Seed-VerifierSeed-Thinking-Verifier

  • Seed-Verifier 基于一套由人类制定的原则,利用大语言模型的能力评估由问题、参考答案和模型生成答案组成的三元组。如果参考答案与模型生成的答案本质上等价,它返回「YES」;否则返回「NO」。这里的等价不要求逐字匹配,而是基于计算规则和数学原理进行深层评估,确保奖励信号准确反映模型回答的本质正确性。
  • Seed-Thinking-Verifier 的灵感来自人类的判断过程,通过细致思考和深入分析得出结论。为此,团队训练了一个能够提供详细推理路径的验证器,将其视为可验证任务,与其他数学推理任务一起优化。该验证器能够分析参考答案与模型生成答案之间的异同,提供精确的判断结果。

Seed-Thinking-Verifier 显著缓解了 Seed-Verifier 存在的三个主要问题:

  • 奖励欺骗(Reward Hacking):非思考型模型可能利用漏洞获取奖励,而不真正理解问题。Seed-Thinking-Verifier 的详细推理过程使这种欺骗变得更加困难。
  • 预测的不确定性:在参考答案与模型生成答案本质相同但格式不同的情况下,Seed-Verifier 可能有时返回「YES」,有时返回「NO」。Seed-Thinking-Verifier 通过深入分析答案背后的推理过程,提供一致的结果。
  • 边界情况处理失败:Seed-Verifier 在处理某些边界情况时表现不佳。Seed-Thinking-Verifier 提供详细推理的能力使其能够更好地应对这些复杂场景。

表 1 展示了上述两种验证器的性能。结果表明,Seed-Verifier 在处理某些特殊情况时效果欠佳,而 Seed-Thinking-Verifier 展现出提供准确判断的卓越能力。尽管后者的思维过程消耗了大量 GPU 资源,但其产生的精确且稳健的奖励结果对于赋予策略强大的推理能力至关重要。

  1. 不可验证问题
    研究团队为不可验证问题训练了一个强化学习奖励模型,使用与 Doubao 1.5 Pro 相同的人类偏好数据,主要覆盖创意写作和摘要生成。

团队采用了成对生成式奖励模型,通过直接比较两个回答的优劣并将「是 / 否」概率作为奖励分数。这种方法让模型专注于回答间的实质差异,避免关注无关细节。

实验表明,此方法提高了强化学习的稳定性,尤其在混合训练场景中减少了不同奖励模型间的冲突,主要是因为它能降低异常分数的生成,避免与验证器产生显著的分数分布差异。

基础设施

大语言模型强化学习系统需要强大基础设施支持。团队开发的流式推演架构通过优先级样本池异步处理轨迹生成,使迭代速度提升 3 倍。系统还支持自动故障恢复的混合精度训练,确保大规模强化学习运行的稳定性。

框架

Seed-Thinking-v1.5 采用的训练框架是基于 HybridFlow 编程抽象构建的。整个训练工作负载运行在 Ray 集群之上。数据加载器和强化学习算法在单进程 Ray Actor(单控制器)中实现。模型训练和响应生成(rollout)在 Ray Worker Group 中实现。

流式 Rollout 系统

其 SRS 架构引入了流式 Rollout,可将模型演化与运行时执行解耦,并通过参数 α 动态调整在策略和离策略的样本比例:

  • 将完成率(α ∈ [0, 1])定义为使用最新模型版本以在策略方式生成的样本比例。
  • 将剩余的未完成片段(1- α)分配给来自版本化模型快照的离策略 rollout,并通过在独立资源上异步延续部分生成来实现无缝集成。

此外,该团队还在环境交互阶段实现了动态精度调度,通过后训练量化和误差补偿范围缩放来部署 FP8 策略网络。

为了解决 MoE 系统中 token 不平衡的问题,他们实现了一个三层并行架构,结合了用于分层计算的 TP(张量并行化)、具有动态专家分配的 EP(专家并行)和用于上下文分块的 SP(序列并行)。这样一来,其 kernel auto-tuner 就能根据实时负载监控动态选择最佳 CUDA 核配置。

训练系统

为了高效地大规模训练 Seed-Thinking-v1.5 模型,该团队设计了一个混合分布式训练框架,该框架集成了先进的并行策略、动态工作负载平衡和内存优化。下面详细介绍一下其中的核心技术创新:

  • 并行机制:该团队 TP(张量并行)/EP(专家并行)/CP(上下文并行)与完全分片数据并行(FSDP)相结合,用于训练 Seed-Thinking-v1.5。具体而言,他们将 TP/CP 应用于注意力层,将 EP 应用于 MoE 层。
  • 序列长度平衡:有效序列长度可能在不同的 DP 等级上不平衡,从而导致计算负载不平衡和训练效率低下。为了应对这一挑战,他们利用 KARP 算法重新排列了一个 mini-batch 内的输入序列,使它们在 mini-batch 之间保持平衡。
  • 内存优化:他们采用逐层重新计算、激活卸载和优化器卸载来支持更大 micro-batch 的训练,以覆盖 FSDP 造成的通信开销。
  • 自动并行:为了实现最佳系统性能,他们开发了一个自动微调系统,称为 AutoTuner。具体来说,AutoTuner 可按照基于配置文件的解决方案对内存使用情况进行建模。然后,它会估算各种配置的性能和内存使用情况,以获得最佳配置。
  • 检查点:为了以最小的开销从不同的分布式配置恢复检查点,该团队使用了 ByteCheckpoint。这能让用户弹性地训练任务以提高集群效率。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI头像生成器Synthesia与Shutterstock达成视频素材协议

一家价值20亿美元(约合16亿英镑)的英国初创公司Synthesia,利用人工智能生成逼真的头像,已与视频素材公司Shutterstock达成了一项许可协议,以帮助开发其技术。


Synthesia将向总部位于美国的Shutterstock支付一笔未披露的费用,以使用其企业视频素材库来训练最新的人工智能模型。它预计通过将这些剪辑纳入模型中,将会使其头像呈现出更逼真的表情、声音语调和肢体语言。

“得益于与Shutterstock的合作,我们希望尝试新的方法,以……增加我们的AI生成头像的真实感和表现力,使其更接近人类的表演,”Synthesia表示。

此协议的宣布是在人工智能公司与创意产业之间因未经版权持有者许可而使用受版权保护素材进行模型训练的紧张局势背景下进行的。英国政府建议放宽版权法,以允许科技公司在不征得内容拥有者同意的情况下使用该内容,除非他们声明选择退出,从而阻止人工智能公司这样做,这一举动引发了创意专业人士的愤怒。

Synthesia使用人类演员生成数字头像,这些头像随后被公司在各种场景下应用于企业视频中,例如提供网络安全建议、计算水费以及如何更好地进行沟通等。包括劳埃德银行和英国天然气在内的英国客户使用Synthesia,公司也被非公司机构使用,包括国民健康服务(NHS)、欧盟委员会和联合国。

上个月,Synthesia宣布向其使用的最受欢迎头像的演员提供股票,以此表彰这些演员作为公司面孔的角色。Synthesia为其头像授予演员三年的使用权,已支付演员现金,参与为其头像拍摄长达六小时的工作。

Synthesia不允许将其库存头像用于政治或新闻目的。该公司不会将Shutterstock镜头中的人物用作头像,而是将这些镜头用于帮助其模型更好地理解肢体语言和工作场所的互动及环境,例如建模人们在桌子后或白板前交谈时的表现。

总部位于伦敦的Synthesia成立于2017年,由两位丹麦企业家和两位学者创立。今年,该公司在一轮融资中筹集了1.8亿美元,预计估值达到21亿美元。

跨党派贵族、政府版权计划的著名批评者Beeban Kidron表示,许可Shutterstock内容的交易证明了政府关于版权的立场是“错误的”。“我希望这一公告能帮助英国政府更深刻地理解英国的利益所在,”她说。

政府表示,版权与人工智能的相关制度正在阻碍创意产业、媒体和科技领域实现其全部潜力,“不能再继续下去了”。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

《黑镜》的悲观色情不会引领我们走向更美好的未来

《黑镜》不仅仅是科幻作品——它对现代的故事已经成为类似科学民俗的存在,塑造了我们对技术和未来的共同看法。


每一项新创新都有一个寓言:智能手机被视为新阶级制度的工具,机器人犬作为过度热情的人类猎手,无人机则作为致命的蜂群,人工智能被视为新世纪的死灵法术,虚拟现实和脑芯片被描绘为引发癫痫的噩梦,这些仅仅是其中的一部分。每一集往往传达了我们对未来的共同焦虑——或通过精湛的写作、导演、选角和表演促进了新的焦虑。这是一部必看的剧集,但我们是否真的需要如此认真地对待它?

《黑镜》并未持续探索技术与我们对其反应的双重性。这是一个重要的不足之处。该剧模仿了伊卡洛斯和达达罗斯的愚蠢——原始的科技兄弟,以及《侏罗纪公园》的汉蒙博士的自负。缺少的是普罗米修斯神话的教训,后者将火视为人类的恩赐,而不是诅咒,尽管火的民主化激怒了仁慈的神祇。缺失的是潘多拉的盒子所带来的剧情反转,使其在哲学上具有实用性:盒子里还包含着新知识带来的希望和机遇。虽然《黑镜》探讨了人类对技术的反应,但往往在服务于反乌托邦叙事的过程中忽略了艾萨克·阿西莫夫的观察:人类倾向于非理性地恐惧或抵制技术。

《黑镜》更多是悲观色情,而不是柏拉图的寓言,向观众暗示着一个潜在的教训:害怕未来多于过去。恐惧技术改变过多,而不是过少。这是一种内在的民粹主义叙事——一种迎合怀旧情绪的叙事:从智力上我们理解,目前在很大程度上比过去更好,这在科学和技术变革中占据重要地位,但情感上和本能上我们无法克制地感到这一历史时刻是不同的,认为未来只会变得更糟。

技术恐惧的严重后果

这种简化的反乌托邦主义——是1960年代后科幻小说的一个标志——模糊了我们对未来的思考,因为它“无法想象一个更好的未来,也没有要求任何人去努力创造一个”,正如《纽约客》的作家吉尔·莱波尔在2017年所指出的。我们逃避未来的投机风险,奔向过去的已知危险,这种动态我称之为弗兰肯斯坦谬论。这种悲观的典范无党派吸引力,因为“它几乎不需要任何文学、政治或道德想象力”,莱波尔说;因此,它具有政治上的实用性,但却没有建设性——正如民粹主义的特性一样。

技术悲观主义将确保明天不太反乌托邦。对转基因生物的恐惧——大约始于《侏罗纪公园》的上映——导致各国逃避转基因食品援助而面临饥荒,从富含维生素的转基因“金米”走向营养不良,导致数百万个可避免的死亡。美国和德国等国逃避核能的未来,转向煤炭和石油。在菲律宾,一座建于1970年代的核电厂至今闲置未启用,而其民众则面临高昂的电价。所有这三个国家现在都试图逆转这一局面,意识到停滞和滞后的确定性本身就是一种反乌托邦。相反,法国从过去走向未来,克服了对核灾难的公众恐惧,现在70%的电力来自核能。

像印度、巴西、墨西哥和泰国等国则逃避了电子烟——禁止它们,同时允许传统的烟草在18亿公民中流通。宁愿不安全也不愿后悔。

在美国,罗伯特·F·肯尼迪(Robert F. Kennedy Jr.)从疫苗退回自然免疫,尽管在风险已不那么抽象的情况下他可能重新考虑了。两党努力寻求取消在线匿名,以保护儿童,却忘记了成年后他们将在言论自由的背景中失去这种保护。对环保实验室培养的牛肉的攻击引发了共和党人的支持,而民主党人如约翰·费特曼(John Fetterman)也加入其中。

在英国,加密技术正面临攻击,这是一种现代的普罗米修斯保护措施,因愤怒的权力者而遭遇困扰,这一切都是以防止社会失控技术为名。同时,青春期(Adolescence)成为最新的反乌托邦Netflix节目,塑造了公众政策对技术和未来的对话。

人工智能被吹捧为人类的生存威胁,同时它加速了癌症治疗,降低了脓毒症死亡率,并生产出新型抗生素来对抗顽固的超级细菌。

新寓言

一种新的进步主义——一种拥抱建设而非阻碍、务实而非谨慎的思维方式——必须找到新的寓言来思考技术和未来。这样的故事挑战了英国首相基尔·斯塔默(Keir Starmer)批评的那种心态,这种心态让我们错失了巨大的机会“因为对小风险的恐惧”。

我们必须远离灾难性故事的二元叙述,不是向天真的乌托邦主义迈进,那忽视变化带来的问题和风险,而是向充满希望的解决主义迈进,提醒我们可以解决和缓解这些问题。这样的故事让我们不忘,脑芯片可以解放截瘫人士,机器人犬可以保护我们免受地雷的伤害,人工智能可以预防超级细菌,而虚拟现实可以将我们连接起来,而不是让我们脱离现实——即使它们的情节“有点像《黑镜》”。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Brandtech与谷歌合作将Veo 2整合入生成AI营销工具

Brandtech宣布与谷歌云的重大合作,将谷歌尖端的视频生成模型Veo 2整合到Brandtech市场领先的生成AI营销平台Pencil中。图片{ width=60% }


将Veo 2集成到Pencil Pro标志着这一伙伴关系的重要里程碑,因为Brandtech为市场营销人员带来了卓越的生成AI工具。这一整合使品牌能够在单一、流畅的界面中访问谷歌最先进的AI模型,包括谷歌的Gemini模型用于文本生成、Imagen 3用于图像创作,以及谷歌云的ABCD框架用于资产分析。这一套以谷歌云为动力的工具,使市场营销人员能够以前所未有的效率和规模生成和部署高质量的AI驱动内容。Brandtech的创始人兼CEO大卫·琼斯(David Jones)表示,2025年将成为“生成AI的指数级扩展之年”,强调了Veo 2的变革性影响。“我们正在见证品牌可能性的一次重大转变。通过集成Veo 2,我们为客户提供了最先进的视频生成工具。我们与谷歌云合作取得的成果令人震惊,这只是生成AI在营销中所能实现的开始。”

日本航空公司(Japan Airlines,JAL)是首个利用这一合作的品牌,利用谷歌的Veo 2和Gemini模型提升乘客体验。2025年,部分航班将展示激动人心的AI生成影片,旨在通过令人叹为观止的日本目的地视觉效果激励旅行者。这一创新使得每个座位背后的显示屏都成为了旅行灵感的目的地,生成AI在瞬间将未来行程呈现出来,为乘客提供更个性化的空中体验。这是日本航空致力于提升客户体验的最新举措,体现了航空公司从旅客踏上航班的那一刻起,将日本与他们连接的承诺。得益于Veo 2所提供的卓越逼真度、细节和控制能力,从文本和图像提示中生成高质量视频成为可能。谷歌的Gemini模型用于脚本编写和内容策划。整个创作过程从概念到最终制作在Brandtech集团旗下公司Jellyfish和Pencil的混合团队的努力下,在不到15小时内完成。JAL全球市场营销常务董事健美子(Minako Kent)表示:“我们始终在思考如何帮助旅客策划难忘的行程,并了解日本传统和独特的旅行体验。谷歌Gemini模型在文本到视频方面的进步使我们能够创作受到日本目的地多样性启发的内容,为我们的客户提供新的参与度。AI生成的机上内容将在YouTube上以60秒的精彩影片和定制的六秒视频版块推出。”

扩展全球品牌的生成AI整合意味着品牌能够在一个界面中访问多个谷歌工具,同时还可以使用Pencil的性能预测和创意评分。此外,由于Pencil Pro中品牌特定的工作空间集成了基于RAG的品牌库,市场营销人员可以确保生成的所有内容都符合品牌指南以及谷歌的ABCD框架用于视频广告。更重要的是,Pencil还集成了新功能,这使得Brandtech不仅能够扩展营销资产(文本、图像、视频等)的生成,还能交付为特定渠道和连接的广告帐户(如YouTube、Instagram和TikTok)准备好的最终格式。迄今为止,Pencil Pro已生成超过200万条广告,视频创作和编辑已成为该平台最受欢迎的功能。Veo 2的推出标志着AI驱动内容的新纪元,使品牌能够以比以往更快、更高效的方式突破创意界限。

Pencil的首席执行官兼联合创始人威尔·汉舍尔(Will Hanschell)强调了这一影响:“Veo 2在Pencil中的加入强化了我们赋能市场营销人员使用先进AI的承诺,使他们能够制作不只是更聪明和更快速的活动,同时也更大胆、更具艺术灵感的活动。控制和质量的突破性变化将之前不可能的创意在几分钟内转变为真实的营销内容。日本航空在将生成AI应用于旅游行业方面走在了前列,我们期待着看到其他品牌如何效仿。”

除了整合Veo 2,Brandtech及其集团公司Jellyfish还将在谷歌云市场上提供Pencil Pro,使谷歌的客户和合作伙伴能够无缝访问其能力。Brandtech集团合作伙伴及新兴技术负责人丽贝卡·西克斯(Rebecca Sykes)表示:“生成AI工具的进步之快令人惊讶,文本到视频的能力将彻底改变游戏规则,因为我们将能够为客户制作卓越质量的生成AI电视广告。Veo 2是一款出色的生成AI视频工具,我们很高兴能将其整合到Pencil中并带给我们的客户。”

Brandtech集团是全球领先的数字营销集团和全球第一的生成AI营销公司。它于2015年6月由前Havas首席执行官大卫·琼斯创立,旨在帮助品牌通过技术更好、更快、更便宜地进行营销。

如今,Brandtech是全球许多最大品牌和企业的最大的数字内容合作伙伴。该集团与全球十大最大的广告商中的8家及全球前100名中的60家合作。客户包括谷歌、微软、联合利华、LVMH、摩根士丹利、拜耳、TikTok、帝亚吉欧、瑞凯特和雷诺-日产。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Beyond Identity与RapidFort合作加速FedRAMP认证

合作伙伴关系加快了进入政府市场的步伐并简化了合规流程
RapidFort,全球软件供应链安全领域增长最快的网络安全公司,已与Beyond Identity(一家领先的身份和访问管理解决方案提供商)建立合作关系,以减少FedRAMP认证的时间和成本。图片{ width=60% }


通过与RapidFort的合作,Beyond Identity缩短了认证流程三个月,并将相关成本降低了50%,在出众的替代方案中脱颖而出,巩固了其在政府领域的信誉。
“RapidFort在我们的FedRAMP认证旅程中是一个优秀且全面的合作伙伴,”Beyond Identity的工程经理,站点可靠性工程师Borislav Ivanov表示。“他们将镜像加固和SSDLC的成本降低了50%,缩短了整体合规时间三个月,为我们提供了每一步出色的支持。”
获得FedRAMP认证对任何希望向联邦政府提供解决方案的组织来说都是一个关键且复杂的过程,要求提供广泛的文档、安全测试和持续的合规工作。Beyond Identity希望简化这一过程,降低整体认证成本,同时不会给其工程团队带来过大的负担。
RapidFort在帮助Beyond Identity获得认证的过程中,发挥了关键作用,并在三个主要方面实现了其预算和流程目标:

  • 通过与NIST 800-70,FIPS 140-2和140-3标准对齐的预加固、接近零CVE的Curated Images简化合规流程,建立了安全基础,减少了初始合规工作的相当一部分。
  • 利用其自动扫描工具简化基准测试过程,确保安全技术实施指南(STIG)加固应用程序。
  • 自动生成所需的合规文档,包括行动计划和里程碑(POAM)以及软件物料清单(SBOM),进一步减少了劳动密集型工作。

“我们的客户正在为私营和公共部门开发尖端安全解决方案,因此他们的产品尽快获得政府批准至关重要,”RapidFort首席执行官Mehran Farimani表示。“我们自豪地设定了FedRAMP认证支持的行业标准,简化了一项传统上复杂的流程,并强化了帮助保护我们国家的基础设施。”
RapidFort已经通过Platform One,Tradewind Marketplace,AWS Marketplace,Microsoft Azure Marketplace,Google Cloud Marketplace和Carahsoft提供可靠有效的途径,让有意进入联邦市场的组织推动在政府领域的增长。有关RapidFort平台的更多信息,请访问:https://www.rapidfort.com/

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Pythian推出Agentspace QuickStart服务

Pythian Services Inc.(“Pythian”)是一家全球领先的数据、分析和人工智能解决方案服务公司,近日宣布推出其Google Agentspace QuickStart服务。图片{ width=60% }


这项新服务旨在为企业提供一个快速高效的路径,以利用Agentspace的力量,将行业领先的人工智能和Google优质搜索应用于其企业中。Pythian的新Agentspace QuickStart服务使企业能够快速部署Agentspace,从而解锁提高生产力、改善决策和更快获取基于企业数据的人工智能策划见解的能力。
“人工智能驱动的企业搜索为组织提供了增强业务运营和简化对内部信息访问的机会,”Google Cloud全球合作伙伴组织的Kevin Ichhpurani表示。“Pythian的Agentspace QuickStart为希望实施Google Agentspace并了解其对内部生产力影响的组织提供了一个框架。”
凭借Google在人工智能领域数十年的领导地位,Agentspace提供高质量的搜索、见解和推荐,在多个领域推动可观的商业价值。Pythian的Agentspace QuickStart服务促进了统一搜索界面的创建,整合各种企业应用程序,并使用生成式人工智能、基于意图的搜索、对话界面和清晰的来源引用,提供类似Google的搜索体验。这使员工能够解锁企业专业知识,搜索企业数据和公共网站,并利用专家代理进行所有业务工作流程。
“企业只需在四周内即可轻松许可和设置Agentspace,我们的新QuickStart服务,”Pythian首席执行官Brooks Borcherding表示。“我们的Agentspace QuickStart服务旨在迅速提高员工生产力,并为组织的人工智能应用提供清晰的成功路径。”
Pythian的Agentspace QuickStart服务包括结构化的四周流程:

  1. 发现阶段:建立项目治理,定义成功标准,并确认技术设置。
  2. 解决方案设计:设计符合客户环境的解决方案架构,以满足列出的业务和技术需求,包括针对安全性和系统设计、数据模型设计和连接器配置的具体要求。
  3. 解决方案开发:配置Agentspace的平台和身份提供者。配置和连接已识别的数据源到Agentspace,确保每个连接器支持用户特定的访问。
  4. 测试与优化:在Agentspace中配置和测试数据源连接,确保用户特定的访问和适当的访问控制。利用客户提供的数据集评估解决方案,并根据反馈进行进一步优化,整个测试过程中将提供定期的技术协助。
  5. 部署阶段:项目将以知识转移会议结束,回顾目标、经验教训和交付物,包括技术设计文档。将提供操作指南,并在整个项目生命周期内定期提供状态报告和会议。

今天就通过Pythian的Agentspace QuickStart服务开始您的旅程,并于4月9日至11日在拉斯维加斯的Google Cloud Next 25展位#2787与Pythian讨论Agentspace。
“Agentspace企业搜索连接了企业使用的数百到数千个应用程序,”Pythian首席技术官Paul Lewis表示。“借助Agentspace,员工可以更轻松、更快捷地获取信息,做出更好的决策,提高数据准确性和可用性,增强客户体验,从而节省大量开发时间。”
Agentspace在数据隐私方面确保符合Google Cloud的强大承诺:客户拥有自己的数据,Google Cloud防止内部访问,永远不会出售客户数据,并且不会将客户数据用于模型训练或广告。
企业人工智能的应用正在迅速变化。人工智能支出已激增至138亿美元,比去年增长了600%。企业正从人工智能概念验证(PoC)转向执行,将人工智能纳入其核心商业战略。
“One of the biggest challenges business leaders face, specifically CIOs, is delivering real results from AI investments,” said Lewis. “The AI services Pythian offers have high impact, delivering appreciated ROI to demonstrate clear business outcomes. Organizations need to demystify the complex concept of AI and think about its immediate impact, starting from within their organization.”
人工智能的最大影响将是推动组织内部的采用。Pythian的Agentspace QuickStart服务旨在提供生产力和员工满意度的明显改善,从而推动内部需求,将更多应用程序纳入平台,以改善对信息和数据的访问,提升生产力和更好的决策。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB