FireMon欢迎Skybox顶尖人才以加速全球扩展

来自Skybox Security的网络安全专家加入FireMon,以推动在EMEA、APAC和北美的增长,提供统一的客户价值
FireMon,网络安全政策管理(NSPM)的领导者,今天宣布招聘四位来自Skybox Security的战略销售领导者,进一步增强其对全球增长和客户成功的承诺。图片{ width=60% }


随着Alessio Fasano(南EMEA)、Morris Becker(DACH)、Veera Subramanian(东南亚)和Brian Matzke(纽约市)的加入,FireMon继续扩大其全球足迹,强化地区领导能力,增强其提供可扩展、安全和创新解决方案的能力,以满足各市场企业的需求。
Alessio Fasano,曾担任Skybox的意大利、希腊、塞浦路斯和马耳他的国家经理,以公司中最成功的销售高管的身份加入FireMon。作为一名经验丰富的技术领导者和企业家,Fasano拥有数十年的经验,领导团队、发展渠道合作伙伴关系,并在压力下交付可衡量的成果。他还曾担任Retelit的集团首席安全官,从另一侧深入了解客户的痛点。
Morris Becker,位于德国,在Skybox成功任职后加入FireMon,帮助指导企业参与并在中欧地区发展业务。以其顾问式销售方法和深厚的地区知识而闻名,Becker将在FireMon的DACH地区增长中发挥关键作用。
Veera Subramanian,曾任Skybox的东南亚和香港地区销售总监,现在负责FireMon在东南亚和澳大利亚的战略客户。凭借在APAC地区构建和扩展销售运营超过20年的经验,Subramanian因帮助组织通过可见性、分析和自动化实现更强的安全态势而被认可。他还是Vincere CyberTech的创始人,并曾在F5、Picus Security等快速增长的安全供应商担任领导职务。
Brian Matzke以纽约市战略客户执行官的身份加入FireMon,此前他在Skybox Security的任期内推动了东北部的企业销售。他的加入进一步增强了FireMon在北美团队的实力,这是对客户领导力进行广泛全球投资的一部分。凭借超过30年的技术销售经验,包括过去15年的网络安全领域,Brian在网络和信息安全解决方案方面具有深厚的专长。他的背景还包括在Radware、Tenable和IntSights的职位。
“FireMon在网络安全政策管理方面已有超过25年的领先地位,帮助全球企业应对复杂性、降低风险,并在不断演变的威胁环境中保持安全,”FireMon首席营收官Brian Keets表示。“引进Alessio、Morris、Veera和Brian这样的行业资深领导者,对于推进这一使命至关重要。他们每个人都带来了深厚的地区专业知识和以客户为中心的强烈意识,这些品质在我们全球扩展和继续为客户提供有意义的结果时至关重要。”
继Skybox Security关闭后,FireMon看到来自一些行业知名安全专业人士的全球兴趣和招聘急剧上升。这些新聘员工是FireMon在国际市场扩展和响应能力方面进行的一系列战略举措的一部分,同时继续支持其企业客户,提供业界最智能的安全政策管理平台。
FireMon的全球足迹目前覆盖70多个国家,服务于超过1,700个客户。公司继续引领混合云安全、自动化和通过持续合规和智能政策治理来降低风险的市场。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Phantom Neuro获得1900万美元A轮融资,由Ottobock领投

投资将加速Phantom X的临床试验和商业化,Ottobock将加入Phantom Neuro董事会

Phantom Neuro,这家推动人机接口发展的神经科技公司,今天宣布完成了由Ottobock领投的超额认购1900万美元A轮融资。图片{ width=60% }


Ottobock是全球假肢、矫形器和外骨骼技术领域的领导者。此次融资包括现有投资者的参与,如Breakout Ventures、Draper Associates、LionBird Ventures、Time BioVentures和Risk and Return,以及新投资者Actual VC、METIS Innovative、e1 Ventures、Jumpspace、MainSheet Ventures和Brown Advisory。

此次投资使Phantom Neuro的总融资额达到了2800万美元,这是该公司实现其Phantom X机器人控制平台向患者推广使命的一个里程碑。资金将支持前临床测试、首个人体试验的完成、监管提交以及更广泛控制应用的研究与开发,超越假肢领域。

Phantom Neuro创始人兼首席执行官Connor Glass博士表示:“Ottobock的支持凸显了神经科技、假肢和机器人技术日益融合的趋势。几十年来,Ottobock一直处于为数百万人的恢复行动力的最前沿。通过与他们的合作,我们正在加速Phantom X的市场路径,并为我们所有人渴望的未来奠定基础,让助行设备真正成为人体的自然延伸。”

作为投资的一部分,Ottobock将加入Phantom Neuro的董事会,带来在全球假肢和外骨骼市场的专业知识,支持Phantom的商业化努力。

Ottobock首席执行官Oliver Jakobi表示:“Phantom Neuro正在改变人们与助行设备的互动方式,他们的微创神经接口技术代表了该领域的一大进步。我们的投资反映了我们作为MedTech冠军在引领假肢市场中的雄心,确保患者能够获得尽可能有效的解决方案。我们期待与Phantom Neuro合作,扩大这种突破性技术的可及性。”

此次融资是在Phantom Neuro最近获得美国食品药品监督管理局(FDA)对Phantom X的突破性设备设计认证和目标加速途径(TAP)认证之后进行的。这些认证验证了该平台改善患者结果的潜力,通过提供类人的假肢和助行设备控制,并帮助加快监管审批。

此外,Phantom Neuro的ASCENT研究表明,Phantom X在解码11种基本手部和腕部动作的实时手势中实现了94%的准确度,进一步支持其恢复功能和独立性帮助行动受限个体的潜力。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Loftware推出新的SAP标签集成

Loftware, 全球领先的企业标签和艺术品管理解决方案提供商,今天宣布推出两项新的集成,以增强任何SAP环境中的标签能力。图片{ width=60% }


这些集成简化了标签流程,减少了错误,并确保了法规合规,使企业能够实现更高的效率、无缝的供应链标签打印以及合规驱动的成本节约。

Loftware Integration for SAP BTP和S/4HANA Cloud以及Loftware Integration for SAP GLM+支持整个供应链中的安全和自动化标签,帮助企业消除手动重新贴标签的工作,降低误标风险,并保持与不断变化的法规要求一致。这对那些在化学品和危险材料领域运营的公司尤其重要,因为他们正在为即将于今年5月开始实施的修改版欧洲CLP法规做好准备。

“最新的集成加强了我们与SAP的紧密合作关系,以及我们帮助各类企业提升准确性、维持合规和降低成本的承诺。通过与SAP的Clean Core倡议对齐并启用Loftware Cloud,我们使客户能够简化供应链操作,并为他们的标签策略的未来做好准备,”Loftware首席产品官Michelle Northey说道。

Loftware Integration for SAP GLM+通过促进来自SAP全球标签管理(GLM+)系统的打印请求,同时提供实时作业状态更新,扩展了企业标签能力。这一集成使组织能够轻松管理复杂的标签要求,减少对IT资源的依赖,同时通过Loftware Cloud的直观和用户友好的平台显著简化标签设计。

Loftware Integration for SAP BTP和S/4HANA Cloud是一种产品无关的集成,它接收来自SAP Cloud(公共版)和SAP BTP系统的打印请求,以驱动标签打印流程。该集成经过SAP BTP和SAP S/4HANA Cloud(公共版)的认证,进一步巩固了Loftware的可靠性和市场领导地位,同时支持SAP打印队列以实现无缝的标签打印通信,并提供实时作业状态更新。随着与SAP Cloud和SAP BTP的集成的增加,Loftware现已提供了一整套SAP集成选项,可以满足SAP客户在云迁移过程中当前和未来的需求。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Algolia推出首份关于运营搜索的报告

Algolia的数据揭示了搜索团队如何演变,以构建引人入胜的搜索与发现体验。图片{ width=60% }


Algolia,全球唯一的端到端AI搜索和发现平台,今天推出了首个《搜索团队如何工作:构建卓越搜索体验》报告。
报告的数据揭示了各个角色在组织中如何协作,以购买、构建或优化搜索的优先事项和工作实践。该报告考察了当前的实践,并展望搜索构建者和决策者未来的趋势和重要领域。
Algolia产品营销副总裁Nate Barad表示:“搜索不再只是技术功能——它是核心业务驱动力。由AI驱动的搜索和自动化正在改变我们如何提供无缝的用户体验,但成功取决于背后的团队。正确的AI、低代码工具和跨职能团队的组合,将使行业领导者脱颖而出。”
报告的主要发现包括:
持续和日益增长的AI采用

AI使用已如此广泛,以至于它成为搜索开发的标准部分,82%的团队定期使用AI。
受访者使用AI进行四项主要任务:编写代码(33%),执行行政任务(25%),管理技术(24%),和构建AI体验(17%)。
值得注意的是,用户(18%)引用的主要原因是公司安全,这也是其不使用AI的原因。在不使用AI的人中,有40%表示公司的安全团队已禁止在他们的开发和工作流程中使用AI。

对低代码和无代码工具的日益依赖

低代码和无代码工具的兴起导致57%的非开发人员团队成员在开发人员转向其他项目后,使用代码来分析数据和维护搜索实例。
这些非技术“编码者”是当今搜索构建团队的一部分。在商业角色中,65%的高管使用了代码,63%的营销人员,53%的商品专员,以及33%的产品经理。
三分之二的开发人员受访者更倾向于使用低代码和中代码的方法进行分析(64%)和行政任务(65%)。全代码和中代码的方法则更适合于高层工作,包括应用程序创建(85%)和数据集成(78%)。

搜索是一项团队努力

高管、开发人员、产品经理、营销人员和商品专员是搜索构建团队的主要角色。
尽管构建和交付搜索与发现体验的角色展现了不同的开发优先事项、搜索性能目标、技术专业知识和软技能,但没有单一角色可以独自形成卓越的搜索体验。
大多数搜索团队成员(70-80%)表示,他们与其他职能同事频繁协作。然而,仅有58%的非开发人员表示与开发人员频繁合作。

要了解Algolia的AI搜索技术如何支持搜索团队高效协作,您可以在此免费尝试Algolia AI搜索,或在此请求演示。想要了解推动搜索团队开发网站的趋势,可以下载 2025 年 B2B 电子商务网站搜索趋势报告的免费副本。
报告方法论
该报告基于来自美洲、欧洲、Middle East 和亚太地区1245名参与者的意见,这些参与者来自各个行业和规模的公司。该研究特别关注电子商务和零售行业的搜索构建者,这93%的参与者来自于该领域。
Business Wire是新闻机构、记者、投资专业人士和监管机构的可信来源,通过其多项专利NX网络,将新闻直接传输到编辑系统和领先的在线新闻源。Business Wire在全球拥有18个新闻中心,以满足通信专业人士和新闻媒体的需求。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

字节Seedream 3.0追平GPT-4o入文生图第一梯队!即梦、豆包全量上线,技术报告公开

文生图领域权威的第三方榜单Artificial Analysis竞技场发布消息称,字节跳动Seed团队图像生成模型Seedream 3.0综合性能已追平文生图SOTA模型GPT-4o,稳定超越Recraft V3、Ideogram、Imagen 3、Midjourney V6.1等模型,进入全球第一梯队。

截屏2025-04-16 10.25.01

Seedream 3.0是字节近日发布的新一代文生图主力模型,目前已在即梦、豆包等平台全量开放。


据Seedream 3.0技术报告,Seedream3.0是一个原生高分辨率、支持中英双语的图像生成基础模型,无需后处理即可实现 2K 分辨率图像直出,适配多比例场景,同时针对小字体高保真生成、多行文本排版等业界难题,模型也取得了突破性的效果表现。

值得一提的是,Seedream 3.0在3秒左右即可快速生成1K分辨率的高品质内容,相比之下,业界同类模型生成该分辨率内容的耗时基本在10秒以上,而此前文生图SOTA模型GPT-4o平均耗时为77秒。

1280X1280 (3)

图注:Seedream3.0 技术报告中评测结果

豆包大模型团队推文介绍称,Seedream3.0研发始于2024年末,通过调研设计师等群体的实际需求,团队不仅将图文匹配、结构、美感等行业共识性指标纳入攻坚方向,同时,也将挑战小字生成与复杂文本排版、2K高清直出、快速图片生成等难题作为核心目标。

针对2K分辨率、多尺寸图像直出能力实现,团队借助了Transformers架构对变长输入序列的灵活处理能力,在从512x512到2048x2048的多种分辨率和不同长宽比上混合训练,让模型实现不经过额外深加工的高清直出,同时也支持多种分辨率输出。

为支持快速生成高品质图像,模型采用自研推理加速算法,依靠一致性噪声预测,叠加重要时间步采样,最终实现对模型的无损加速。在保障图文匹配、美学质量、结构准确度等指标的前提下,Seedream 3.0 生成1K分辨率图像仅需 3 秒。

1280X1280 (9)

图注:Seedream3.0输出图像细节丰富,蝴蝶绒毛根根分明

Seedream3.0还大幅提升了小字体高保真生成、多行文本语义排版表现,满足设计师对海报设计的需求。团队在预训练阶段,引入跨模态旋转位置编码,补足传统方法模态特征对齐短板,进一步加强了文字渲染能力。

Seedream3.0模型可完成小字生成、多行文本排版,并兼顾画面美感

图注:Seedream3.0模型可完成小字生成、多行文本排版,并兼顾画面美感

据Seedream团队介绍,相比此前2.0版本,Seedream 3.0在数据和RLHF阶段也使用了全新方案。团队采用缺陷感知的训练策略,使有效数据集扩充超过20%,同时设计了精准的美感描述维度,并进一步拓展RLHF奖励模型,使Seedream 3.0具备多维度质量判别能力,综合性能大幅提升。

Seedream3.0在美感等方面较2.0进一步提升

图注:Seedream3.0在美感等方面较2.0进一步提升

Seedream团队表示,“新模型在海报创作、生成效率、结构与美感等方面取得了明显进步,但在生成可用性、美感与结构、智能化方面仍有提升空间。”

据了解,未来,团队计划探索更高效的结构设计,包括构建效果更好、成本更低、生成更快的文生图模型,并进一步拓展模型对世界知识的理解,赋予模型交织生成等能力。同时,团队也计划探索数据、模型量级、奖励模型等维度的Scaling现象,将认知积累应用于下一代模型中。

Seedream 3.0 技术报告:https://arxiv.org/abs/2504.11346

Seedream 3.0 官方网页:https://team.doubao.com/zh/tech/seedream3_0



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

72B世界基座模型启动,小鹏的端到端智驾正在验证Scaling Laws

最近一段时间,各家新势力都在角力部署端到端的智能驾驶系统。

作为公认的新范式,它可以让整个智能驾驶系统反应更快,更加拟人,能处理以往方法无法解决的大量 corner case,被认为是自动驾驶通向 L3、L4 的正确方向。


在国内,小鹏于去年 7 月就宣布了量产端到端大模型上车,并构建了从算力、算法到数据的全面体系,在端到端方向上一直保持着领先的身位。

本周,小鹏在 AI 技术分享会上介绍了自己在智能驾驶领域的重要突破和进展,首次披露了正在研发 720 亿参数的超大规模自动驾驶大模型,即「小鹏世界基座模型」。

小鹏的技术人员表示,在物理世界,信息和模态的复杂程度要比数字世界复杂数倍,自动驾驶本质上是物理世界中的复杂 AI 问题,也是具身智能的第一步。

小鹏发展的云端世界基座模型以大语言模型为骨干,使用海量的优质多模态驾驶数据进行训练,具备视觉理解、链式推理和动作生成能力。通过强化学习训练,其基座模型可以不断自我进化,逐步发展出更全面、更拟人的自动驾驶技术。

图片

小鹏汽车自动驾驶负责人李力耘表示,小鹏早在去年就开始布局 AI 基础设施,建成了国内汽车行业首个万卡智算集群,用以支持基座模型的预训练、后训练、模型蒸馏、车端模型训练等任务,小鹏将这套从云到端的生产流程称为「云端模型工厂」。

端到端大模型虽然是各家车企的共识,但仍然面临着算力等瓶颈。当前主流的智驾系统,如运行在 2× 英伟达 Orin 芯片上的系统,大部分只能支持 0.5-1 亿参数,在部署时必须对学习到的知识进行取舍。相比之下,云端大模型体量可以达到车端模型的 140 倍以上。

自去年下半年开始,小鹏面向 L4 级别的自动驾驶启动研发全新的「AI 大脑」,即小鹏世界基座模型。

其团队利用优质自动驾驶训练数据先后开发了多个尺寸的基座模型,目前正在着手推进 72B(72 Billion,即 720 亿)超大规模参数世界基座模型的研发,参数量是主流 VLA 模型的 35 倍左右。

图片

据介绍,该模型的一大优势是具备链式推理能力(CoT),能在充分理解现实世界的基础上像人类一样进行复杂常识推理,并做出行动决策,如输出方向盘、刹车等控制信号,实现和物理世界的交互。

小鹏希望通过基座模型的能力让智驾系统从「模仿人类」进化到「超越人类」,最终能够处理全场景的自动驾驶问题,包括一些模型从未在训练数据中遇到的问题。

更进一步,端到端模型的研究也可以延伸到整个具身智能领域。李力耘表示:「世界基座模型是小鹏自动驾驶真正走向 L3、L4 的基础,也会是未来小鹏所有物理 AI 终端的通用模型。」

从零打造云端模型工厂

小鹏的云端模型工厂「车间」涵盖基座模型预训练和后训练(强化学习)、模型蒸馏、车端模型预训练到部署上车的完整生产链路。整个体系采用强化学习、模型蒸馏的技术路线,能够生产出小体量、高智能的端侧模型,甚至为不同需求的汽车定制不同的「大脑」,让「千人千面」的模型研发成为可能。

图片

目前,小鹏依靠自有万卡集群已拥有 10 EFLOPS 的算力,集群运行效率常年保持在 90% 以上,从云到端的全链路迭代周期可达平均 5 天一次。

小鹏世界基座模型负责人刘博士介绍,多模态模型训练的主要瓶颈不仅是 GPU,也需要解决数据访问的效率问题。小鹏汽车自主开发了底层的数据基础设施(Data Infra),使数据上传规模提升 22 倍、训练中的数据带宽提升 15 倍;通过联合优化 GPU / CPU 以及网络 I/O,最终使模型训练速度提升了 5 倍。目前,小鹏汽车用于训练基座模型的视频数据量已达到 2000 万 clips,这一数字今年还将增加到 2 亿 clips。

依托强大的 AI 算力基础设施和数据处理机制,小鹏开启了全新的基座模型研发范式,从云端模型预训练到车端模型部署,整个「云端模型工厂」的迭代周期达到平均 5 天一次。

三大阶段性成果

在率先量产端到端大模型的同时,小鹏在物理世界大模型研发上也再进一步,其分享了基础大模型研发的三个阶段性成果:

验证了 Scaling Laws 在自动驾驶领域持续生效:

图片

在后装算力的车端上成功实现基模控车:

图片

启动 72B 参数模型训练,搭建针对强化学习的模型训练框架:

图片

规模法则(Scaling Law)揭示了大模型的性能随着模型的计算量、训练数据量和参数量的提升而提升,在大语言模型(LLM)领域一直是人们追逐的目标。而在自动驾驶领域上,训练数据远不止单模态的文本数据,还包括摄像头、激光雷达等关于物理世界的多模态数据,本质上,这要求模型对物理世界形成认知和理解。

小鹏团队首次验证了 Scaling Laws 在自动驾驶领域持续生效,刘博士表示:「过去一年,我们做了大量实验,在 10 亿、30 亿、70 亿、720 亿参数的模型上都看到了明显的规模法则效应:参数规模越大,模型的能力越强。同样的模型大小,训练数据量越大,模型的能力也会越强。」

不久前,小鹏实践了理论,在后装算力的车端上用小尺寸模型实现了控车。尽管只是非常早期的实车测试,全新基模已经展现出令人惊讶的智驾能力。例如模型在未训练的情况下就能适应香港的右舵驾驶环境。

在 AI 技术上,小鹏也一直在探索最新方向,自去年就已开始研发大模型中的强化学习技术。强化学习能够帮助模型自我进化,学会处理训练数据中未出现的长尾问题,做到更安全的自动驾驶。只有足够强大的基座模型,才能被强化学习不断激发出能力上限。这也是小鹏汽车选择云端蒸馏路线的原因之一:在云端不计成本地训练出高智能、泛化能力强的模型,再将其蒸馏到适配车端算力的小模型上,才可以让车端模型的性能超越算力限制。

值得一提的是,强化学习、云端蒸馏等技术的思路,在今年初爆火的 DeepSeek R1 中得到了验证,目前正在逐渐成为行业共识。

基础模型是小鹏汽车 AI 化转型的重要一步,不过在智能驾驶的大模型时代,过去规则时代的经验仍能发挥作用。在开发强化学习的奖励模型(Reward Model)时,小鹏研发团队基于规则经验设计了奖励函数,将规则时代的沉淀转化为了新的生产力。

图片

小鹏也在推动世界模型(World Model)的研发,小鹏的世界模型是一种实时建模和反馈系统,能够基于动作信号模拟出真实环境状态,渲染场景,并生成场景内其他智能体(即交通参与者)的响应,从而构建一个闭环的反馈网络,可以帮助基座模型不断进化,逐渐突破过去「模仿学习」的天花板。

这也意味着人们能够以更有效的方式构建新模型,产生新能力。小鹏工程师表示,我们或许可以像黄仁勋展望的那样,用 AI 模型来生成一个新模型。

据介绍,小鹏世界基座模型研发和训练成果更多的细节,预计还会再今年 6 月的全球 AI 顶会 CVPR 上进行分享。

昨天,小鹏又宣布开启自研 AI 芯片计划,预计将在 2025 年底在中国内地率先实现 L3 级智能驾驶落地。

未来,小鹏还希望通过云端蒸馏小模型的方式将基模部署到车端,给「AI 汽车」配备全新的大脑。这款模型的能力同时也将拓展至小鹏的 AI 机器人、飞行汽车等。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

JHU提出最强ToM方法,AutoToM横扫五大基准

本文有三位共同第一作者,分别为 Zhining Zhang(张芷宁)、Chuanyang Jin(金川杨)、Mung Yao Jia。他们在约翰霍普金斯大学 Social Cognitive AI Lab 共同完成这篇论文。


本文的指导老师为 Tianmin Shu(舒天民),是 JHU Social Cognitive AI Lab 的主任。该实验室致力于构建能够在现实世界中理解、推理和与人类互动的社会智能系统,从而推进以人为中心的 AI。

如何让 AI 像人一样思考?如何拥有像人一样的认知能力和社会能力?

心智能力(Theory of Mind, ToM)是指通过观察他人的行为来理解他们内心想法的能力,这一能力对开发具备社会智能的智能体至关重要。

近日,来自JHU 的研究团队提出了 AutoToM,一种全自动、开放式的心智推理方法。作为首个面向开放场景的 model-based ToM 方法,以类似人类的思维模式,AutoToM 在 5 个基准测试中都取得了最好成绩,并展现出良好的可扩展性、鲁棒性以及可解释性。

图片

论文标题:AutoToM: Automated Bayesian Inverse Planning and Model Discovery for Open-ended Theory of Mind

论文地址: https://arxiv.org/abs/2502.15676

项目主页: https://chuanyangjin.com/AutoToM/

代码地址: https://github.com/SCAI-JHU/AutoToM

基于模型的心智推理

当前在实现心智能力的推理方面主要有两种方法:

  1. 使用大型语言模型(LLM)来推理他人的心理状态。然而,即使使用了换位思考、变化追踪和时空推理等提示策略,LLM 在复杂情境中仍然会出现系统性的错误。
  2. 采用基于模型的推理方法。特别是贝叶斯逆向规划(Bayesian Inverse Planning, BIP)。BIP 假设 agent 会根据一个贝叶斯心智模型(Bayesian Theory of Mind, BToM)做出理性行为。这个模型使用 MDP、POMDP、I-POMDP 等给定框架描述 observation、belief、action、goal 等心理变量之间的依赖关系,来模拟 agent 做出行为的过程。BIP 通过逆推这个生成过程,来判断哪些潜在心理状态可能导致我们观察到的行为。

JHU 该团队之前的论文(ACL 2024 杰出论文奖)将 BIP 和 LLM 结合,以实现既具可扩展性又稳健的模型化心智推理。这类方法更加稳健,在特定领域中相较于直接使用 LLM 有明显优势,但它们依赖的是固定、人工设计的模型,没有办法泛化到不同的领域。

图片

不同基准测试中的示例问题及其所需的 BToM 模型。

AutoToM 第一个适应开放场景的 model-based ToM 方法

AutoToM 引入了一种全新范式。它是一种完全自动化、开放式的基于模型的 ToM 推理方法。AutoToM 实现了对贝叶斯逆向规划的全流程自动化,包括模型结构的提出与调整、关键时间点的识别、假设的生成以及贝叶斯推理的执行。

它无需任何领域知识,可在任意情境中运行,能够推断任何心理状态,推理涉及任意数量的智能体,并支持任意层级的递归推理。这体现了团队对一种开放、通用且稳健的机器心理理论的愿景。

图片

AutoToM 的流程图。X 是已知的可观测变量,V 是潜在的心理变量,q 表示问题中查询的变量。ts:t 表示用于推理的信息来自 ts 到 t 的时间段。变量 s、o、b、a、g 分别表示 state、observation、belief、action、goal,图中的实线箭头表示模型中它们的依赖关系。

全自动的贝叶斯逆向规划

给定一个贝叶斯心智理论模型(BToM)中,我们引入大语言模型(LLM)作为计算后端,用于实现贝叶斯逆向规划(BIP)的各个关键环节。

假设采样(Hypothesis Sampling)

传统的 BIP 方法通常依赖人为设定的假设空间,以及为每个潜在心理变量指定具体的假设表示方式。而我们的假设采样模块则利用 LLM,根据上下文中可观测变量及其取值,生成一小集合的高质量假设。随后,我们还会通过假设筛选机制,去除不太可能的假设,从而压缩假设空间。

贝叶斯推理(Bayesian Inference)

我们使用 LLM 来估计 BToM 模型中每个局部条件概率。接着,通过对非目标潜在变量进行边缘化,我们得到目标变量的后验概率。与以往方法相比,我们的方法具有更强的通用性:支持任意结构的 BToM 模型,能够同时考虑多个潜在变量,并支持任意层级的高阶的心智推理。

图片

在给定的 BToM 模型下,AutoToM 进行全自动的贝叶斯逆向规划。

全自动的模型发现与改进

之前的方法依赖于人工设计的 BToM 模型,这限制了它们在特定领域外的适用性。相比之下,AutoToM 能够自动提出模型,并动态调整模型结构,从而在推理过程中兼顾有效性(即准确地推断出智能体的心理状态)和高效性(即尽可能简化模型和计算复杂度)。

信息提取

信息提取模块会处理给定的信息,识别可观测变量的取值,包括状态、动作和言语等信息,并按时间顺序组织。

提出初始模型

我们使用 LLM 根据已有的信息和任务提出一个初始的 BToM 模型。基于该模型,我们执行自动化的 BIP。如果该模型的效用超过某个阈值,我们便接受该模型的推理结果,否则将进行后续的模型调整。

模型调整

我们通过两种方式迭代式地优化初始模型:变量调整时间节点调整

  1. 变量调整:在某个具体时间点上,我们会引入新的、相关的潜变量来扩展模型结构,从而缓解推理过程中的不确定性。每引入一个变量,我们都会重新计算模型效用,并选择提升效用最大的修改方案进行保留。
  2. 时间节点调整:以往的研究通常假设所有历史都是相关的,而 AutoToM 能够在上下文中发现相关的历史信息,这种能力对于 AutoToM 在长上下文环境中成功进行心理理论推理并降低计算成本至关重要。从最小的时间范围开始,如果在当前的时间范围内,变量调整仍无法显著提升模型效用,我们会考虑加入新的时间节点以引入更多上下文信息。在考虑新的时间节点后,会在此基础上继续执行变量调整。

图片

AutoToM 通过在变量调整和时间节点调整之间交替进行,自动优化 BToM 模型。

自动适应情境,横扫五大基准测试

该团队在 ToMi、BigToM、MMToM-QA、MuMA-ToM 和 Hi-ToM 五个测试基准上进行了测试。这些基准覆盖了不同的心理变量、环境、agent 数量、有无语言表达、措辞风格以及模态类型。

与 AutoToM 不同,许多近年来的 ToM 方法只能应用于特定的基准测试。而在通用的方法中,AutoToM 在所有基准测试中都取得了最优的表现。

图片

AutoToM 和 baselines 在所有基准测试上的表现。

本文的消融研究突出了 AutoToM 在变量调整、时间步调整和假设减少方面的优势。AutoToM 能够构建一个合适的模型,该模型不仅支持丰富的 ToM 推理,还能减少计算量,在准确性和成本之间取得平衡。

图片

AutoToM 及其消融方法在所有基准测试中的平均正确率与计算量。

总结和展望

总的来说,AutoToM 是一个 ToM 推理任务的新颖框架。面对任何 ToM 推理问题,AutoToM 都可以自动构建一个合适的 BToM 模型,并借助 LLM 执行自动的贝叶斯逆向规划。

AutoToM 在所有测试上取得了最好的结果,这是因为 BIP 在面对复杂环境和较长上下文时可以稳健地推理。此外,AutoToM 具有可解释性,能够通过其发现的概率模型来解释模型的判断过程。

该论文为实现更具人类思维特征的推理方式,以及构建具有人类认知基础、具备可扩展性、稳健性和开放性的心理能力模型,指明了一个有前景的方向。该论文也引发了关于 inference-time compute,以及可扩展的 model-based inference 的广泛讨论。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

埃隆·马斯克接管后,X在英国的利润暴跌

X在埃隆·马斯克接管后的第一年里,英国的收入和利润大幅下滑,该公司已承认。


根据本周提交给英国公司注册处的账目,广告支出下降,以及对“品牌安全和/或内容审核”的担忧被认为是收入下滑的原因。Twitter UK Ltd 上个月还险些因为未能按时提交账目而被列入摘牌名单,最近提交给公司注册处的其他文件显示。该公司在星期一才提交了2023年的完整账目,这一年它在马斯克收购后改名为X。“为了建立品牌安全工具,投资于平台安全和内容审核,并教育广告主了解这些举措,业务仍在采取纠正措施,”该公司表示。其整体收入总计为6910万英镑,较2022年的2.053亿英镑下降了66.3%。2023年的利润从前一年的560万英镑降至120万英镑。税前利润则下降了74%,为225万英镑。该公司表示,这意味着“公司的业绩有了显著下降”。马斯克的接管还导致了一波裁员,这位亿万富翁在2023年告诉BBC,约有8000名Twitter员工中只有1500名仍在公司工作。在英国,公司账目显示,其员工人数从去年的399人减少至114人。其中“研究与开发”岗位裁减了173个。尽管面临困境,X的价值在今年早些时候回升至马斯克支付的440亿美元,而上个月他的X.AI人工智能公司以330亿美元收购了该业务。数字广告专家、AccuraCast首席执行官及Unyte.AI创始人Farhad Divecha表示,他对这些数据的揭示并不感到意外。“迹象一直存在,”他说。“如果说有什么的话,我认为我们已经经历了最糟糕的情况,X可能最终有机会恢复广告收入,但这只会发生在英国和欧洲,前提是马斯克和他的团队摆正态度,为广告商提供支持,并建立一些品牌安全的防护措施。”X已被联系以发表评论,作为签字账户的董事,Kin Fai Cheung 的名字也被提及。Cheung和Adeeb Sahar被列为该公司的董事,尽管马斯克在公司注册处被记录为“具有重大控制权”的人。去年底,马斯克在英国成立了一家公司,关于他计划向Nigel Farage的改革英国党做出大额捐赠的猜测随之而来。该公司名为X.AI London,成立于12月12日,注册为从事“商业和国内软件开发”,与X位于同一伦敦办公室。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Infor Velocity Suite 加速流程创新与生成式人工智能

Infor Velocity Suite 使客户能够诊断、自动化和优化流程,从而实现更大的商业价值
Infor,这家行业云全面解决方案公司,宣布正式推出 Infor Velocity Suite,这是一整套解决方案和服务,旨在简化流程创新,帮助客户保持敏捷、适应性强和创新能力。图片{ width=60% }


Infor Velocity Suite 基于 Infor 行业云平台构建,旨在通过一揽子 Infor 最先进的技术和服务来消除流程创新的障碍,帮助客户实现价值。根据调查,75% 的 C 级高管和 3600 家组织的软件用户表示,价值来源于采用先进技术,Infor Velocity Suite 的设计旨在去除这些障碍,以推动灵活创新。

Infor Velocity Suite 使客户能够实现更大的商业价值,具体体现在以下几个方面:

诊断 - 通过 Infor 过程挖掘,客户可以在 Infor CloudSuite 内部诊断流程洞察,深入了解操作流程,识别与标准流程模型偏离的非符合变体,并找出关键瓶颈,从而提供改进领域的洞察。

自动化 - 借助 Infor Value+ 解决方案,客户可以利用生成式人工智能 (Gen AI) 和机器人过程自动化 (RPA) 来自动化在诊断阶段发现的改进,消除手动任务,提供见解并提供关键见解和行动以更加高效地自动化任务。

优化 - 客户可以利用 Infor Value+ 目录中预构建的行业用例,结合 Infor 生成式人工智能和流程自动化,在短短几天或几周内实现价值。

“Infor Velocity Suite 为我们在财务、运营、库存管理、质量控制等多个领域的客户带来了快速的价值转换,”Infor CEO Kevin Samuelson 表示,“Velocity Suite 为客户提供了一种简单而无缝的方式来诊断、自动化和优化流程,同时利用最先进的创新,针对其业务的关键价值驱动因素。”

Infor Velocity Suite 包括对 Infor Value+ 的访问,这是一个利用生成式人工智能和 RPA 等技术提供行业特定解决方案的目录,在数周内交付效率和价值。这些产品已经为许多 Infor 客户带来了引人注目的成果,例如节省成千上万小时的手动和重复任务、客户支持问题的解决时间提高超过 90% 以及数百万美元的额外利润率。Infor Value+ 包含数十种精心策划的解决方案,涵盖财务、客户服务、供应商管理和客户管理等流程。Infor Value+ 解决方案包括:

企业自动化,消除现有的手动任务以提高操作效率。

洞察力,生成分析和报告以促进决策。

高级工作空间,整合与用户角色密切相关的必要信息和操作,提升日常任务的高效完成。

“数字世界节奏迅速,要求企业迅速作出准确决策以保持竞争力,”IDC 企业软件副总裁 Mickey North Rizza 表示,“像 Infor Velocity Suite 这样包含嵌入式人工智能企业应用和先进技术的产品,正在帮助组织改善其业务流程及相关任务,消除步骤和点击,提高生产力和增强指标。”

“我们越快交付我们的船只,家庭和朋友就能越快享受在水上的时光,”Xpress Boats 的信息系统经理 Jennifer Terry 表示,“Infor 过程挖掘为我们提供了优化业务流程所需的速度和精确性,使我们能够稳定地满足这一目标。通过自动识别流程问题,我们可以更迅速地采取纠正措施,提高按时交付率,并将加急运输成本减少 50%,我们对 Infor Velocity Suite 中包含的其他先进技术所带来的未来收益感到兴奋。”

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

与SINBON共同应对机器人部署挑战

随着在机器人解决方案神经系统设计与制造方面的专业知识,SINBON专注于通过定制化来解决实施挑战。图片{ width=60% }


尽管机器人技术具有提升生产力的潜力,但几个实施挑战依然阻碍了其更广泛的应用。为了帮助企业应对这些挑战,领先的电子元件制造商及全面解决方案提供商SINBON电子股份有限公司(TWSE#:3023)强调了根据行业、企业、设施和流程的独特特征定制解决方案的重要性。

根据领先的机器人评测平台QVIRO,项目工程师在实施自动化时面临几大挑战:

  • 与现有系统的集成:将机器人解决方案无缝融入遗留基础设施需要灵活性,往往还需外部专业技能。
  • 熟练劳动力短缺:除了安装,维护自动化设备还需特殊技能。
  • 成本与收益分析:评估初期投资对长远的影响至关重要,而不仅关注短期回报。
  • 安全与合规:机器人使用的监管标准要求在确保遵守与工作场所安全方面的细致关注。
  • 技术挑战与维护:必须平衡运营连续性与技术的维护。

面对这些挑战,释放自动化的长期收益需要仔细了解每家公司的独特挑战及其设施的特点。SINBON凭借在机器人技术、制造设计和系统集成方面的深厚专业知识,采取这种量身定制的方法,引导公司部署机器人技术。

在机器人领域的十年创新
SINBON专注于设计和制造机器人解决方案的神经系统,特别是电线束、控制系统和印刷电路板。SINBON在制造高性能、轻便且适用于各种环境的机器人设备电线束方面表现尤为出色,确保在各类应用中的稳定性和可靠性。自2014年进入机器人行业以来,SINBON已扩展其能力,涵盖服务于多个行业的各种机器人和自动化技术,包括:

  • 工业机器人:主要用于汽车、电子和金属加工应用
  • SCARA机器人(选择性顺应组装机器人臂):用于电子组装、包装和半导体制造
  • 人形机器人:用于客户服务、教育和医疗保健
  • 特种机器人:设计用于极端环境,如军事应用、灾难救援、核处理和深海探测
  • 笛卡尔机器人:用于高精度半导体包装、精密仪器组装和实验室自动化
  • 服务机器人:如送餐机器人、伴侣机器人和医疗护理机器人
  • 协作机器人(Cobots):设计与人类协同工作,以增强工作流程
  • 并行机器人(Delta机器人):广泛用于食品包装、医药和自动化检测应用
  • 仓库机器人:用于智能物流和仓库管理,包括AGV(自动引导车)和AMR(自主移动机器人)

SINBON的竞争优势
作为一家以可持续发展为首的制造商和在欧洲、美国及亚洲受到信赖的合作伙伴,SINBON通过量身定制的机器人解决方案引导客户的自动化旅程,推动效率和创新。通过咨询式的方法和长期的客户支持,公司确保自动化赋能企业持续成长。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB