Deep Instinct宣布推出DIANNA

Cyber companion, DIANNA, builds upon Deep Instinct’s prevention-first capabilities, redefining the boundaries of AI and cybersecurity。图片{ width=60% }


Deep Instinct,这家以预防为主的网络安全公司,通过专为AI设计的基于深度学习(DL)框架,在执行前阻止未知恶意软件,今天宣布推出Deep Instinct的人工神经网络助理(DIANNA),这是行业首个基于人工智能的网络安全伴侣,提供未知威胁的可解释性。DIANNA通过其专家级静态恶意软件分析增强了Deep Instinct对网络安全的预防性方法,这是市场上没有其他解决方案可以复制的。
由大型语言模型(LLM)驱动,DIANNA作为恶意软件分析师和事件响应专家的虚拟AI团队。它对所有攻击进行深入分析,包括以前从未见过的威胁,揭示文件的技术和行为,提供一个全面的故事,以促进对威胁的理解和打击,从而在入侵之前进行防范。
虽然传统的AI工具利用LLM从现有来源如日志和声誉引擎提供类似人类的总结数据,但它们没有提供未知攻击如何具有恶意性质的洞见。尽管有价值,但它们的方法只提供有限上下文的回顾性分析。Deep Instinct利用生成式人工智能,为DIANNA提供无数网络安全专家的集体知识,有效地嵌入到LLM中,以提供对未知文件的深入恶意软件分析,并以无与伦比的准确性识别恶意意图。
Deep Instinct首席执行官Lane Bess表示:“随着AI生成攻击的增加,组织不能再对网络安全采取懈怠或被动的态度。现在是用更好的AI对抗AI并提高对影响业务的未知威胁的认识的时候。”“DIANNA提供了重要的威胁可解释性,增强了我们的预防性方法,并标志着向一个更具信息化、高效和有效的网络安全环境的战略转变。”
DIANNA与Deep Instinct的DL驱动预防性功能无缝集成,通过静态分析深入了解已知和未知攻击行为。与传统的基于机器学习的工具不同,DIANNA不仅提供分类结果;它以清晰易懂的方式提供深入分析和报告。这种透明度使安全团队能够做出明智决策并有效地优先处理威胁,优化安全运营中心(SOC)的性能。它还减少了修复时间(MTTR),同时通过减少追逐虚假阳性的时间显著提高了工作满意度。
通过利用生成式人工智能的力量,DIANNA赋予安全团队以下能力:
未知威胁的无与伦比专业知识:DIANNA的静态分析超越传统方法,为面对零日攻击的组织提供前所未有的洞见。将代码意图和活动转化为自然语言:DIANNA将来自各种语言的二进制代码和脚本转化为自然语言报告。DIANNA不仅分析代码;它理解意图和潜在行为,并解释代码的设计目的,它何以具有恶意性以及对系统可能造成的影响。增强可见性:DIANNA提供对Deep Instinct预防模型决策过程的洞见,使组织能够调整其安全姿势以实现最大效果。威胁传递文件类型的专家级分析:DIANNA分析各种文件格式,包括二进制文件、脚本、文档、快捷文件和其他威胁传递文件类型。简化工作流程:DIANNA自动化了SOC分析中一些最乏味的任务,使安全团队能够专注于更具战略性的倡议。
Deep Instinct首席产品官Yariv Fishman表示:“DIANNA是安全团队的终极网络伴侣。”“有两个因素将DIANNA与其他基于AI的聊天机器人区分开来。首先,它前所未有的恶意软件分析将需要深入网络威胁专业知识的几小时工作压缩为几秒钟。其次,DIANNA对分析未知威胁,包括脚本、文档和原始二进制文件的能力无与伦比。这两种能力都建立在我们的预防性方法之上,使安全团队能够专注于真正重要的事情。”
要了解更多信息,请访问DIANNA网页,并注册我们于5月30日星期四美东时间上午11点举办的DIANNA网络研讨会。有关Deep Instinct的预测性预防能力的更多信息,请访问www.deepinstinct.com.
注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Veracode宣布平台创新

Longbow Security,由Veracode提供支持,在推出Code-to-Cloud Repo风险可视化和分析方面赋予DevSecOps更多权力Veracode修复在IDE中和批处理修复加速安全开发同时帮助组织规模化减少应用风险
Veracode,全球领先的应用风险管理公司,今天宣布了一个为开发人员提供强大应用安全的平台创新标准。图片{ width=60% }


Longbow Security提供的新仓库风险可见性和分析加速了从代码仓库到运行时镜像的应用风险修复。该解决方案与IDE中的Veracode修复和批处理修复同时推出,以弥合开发和安全团队之间的鸿沟。这些最新的创新帮助开发人员专注于推动价值和差异化的最关键任务。
“如今,开发人员面临着比以往任何时候都更快地创新并为他们的代码执行更多安全检查的巨大竞争压力,”Veracode产品管理部门负责人Tim Jarrett表示。“我们致力于为开发人员和安全运营商提供无摩擦的体验,我们最新的产品增强了安全代码的工作,使其简单而无缝。”
将开发和安全团队联系在一起:仓库风险可视化和分析
今年四月,Veracode收购了Longbow Security,帮助组织有效管理和减少跨不断增长的攻击面的应用风险。Longbow最新功能的整合,即仓库风险可见性和分析,增强了开发和安全团队之间的联系,提供了从代码仓库到云资产和运行时镜像的增强可见性。它还为源自仓库的云资产的基础设施即代码和配置错误风险提供了启示。
“客户要求我们将Longbow在云风险和优先级排序方面的独特专业知识应用于他们在代码存储库中面临的问题,”Veracode产品管理副总裁Derek Maki表示。“我们提出了一个解决方案,通过它可以看到源代码弱点和运行时安全姿态之间的关系。同时,开发团队可以得到风险的综合视图,在优先排除漏洞、减少代码更改和快速修复方面节省大量时间。”
这一新特性补充了Veracode最新的GitHub仓库扫描创新,该创新使开发人员能够简化类似服务器和环境的活动,因此他们不需要每次扫描。这使得开发和安全团队能够就安全编码和扫描进行协作,因为Veracode的结果直接传送到GitHub,开发人员可以立即采取行动。
安全负债的减少:IDE中的Veracode修复和批处理修复
研究显示,92%美国的开发人员已经在工作内外使用人工智能(AI)编码工具,生成式AI帮助软件工程师以35-45%更快的速度编写代码。同时,其他研究表明,由AI生成的代码中包含的安全漏洞与人类生成的代码一样多。
Veracode是第一家提供开发人员AI生成的安全代码修复解决方案的公司。自去年RSA大会推出Veracode修复以来,数百家客户已经使用该解决方案来减少其积压的安全负债和风险。对于从中等到非常高的严重性评级的92%通用弱点枚举,都可以通过Veracode修复提供的AI生成代码编辑来解决。
通过在IDE中引入Veracode修复,开发人员现在可以快速修复缺陷,获得AI建议的修复方案,而无需切换应用程序或研究替代代码选项。与事后补救相比,这些修复可以在代码被推送到软件开发生命周期之前进行,从而大大减少修复缺陷所需的时间和成本。
批量修复允许在单个操作中跨多个缺陷和文件对源代码进行批量AI辅助修复。这使得在规模上减少安全负债的漏洞修复速度提高了一个数量级。例如,开发人员可以使用它修复需要容易测试解决方案的通用弱点枚举,并一次运行它跨多个源文件。
Jarrett总结道:“通过这些最新的创新,Veracode与开发人员在他们每天使用的工具中相遇,帮助他们保护今天创建的代码,而不影响生产力。这显着提高了效率和速度,促进了开发和安全团队之间的协作和信任文化。”
仓库风险可视化和分析、IDE中的Veracode修复和批处理修复立即可用。有关更多信息,请访问Veracode博客。
RSA大会的参观者可以通过访问主展厅2045号展位来了解Veracode的平台和这些新功能。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Exovera携先进数据探索、采集功能增强exoINSIGHT

增强的增强现实能力将在SOF Week 2024展示
领先的技术和开源数据提供商Exovera今天宣布,将在2024年特种作战部队周(SOF Week)上展示其AI启用的分析平台exoINSIGHT的先进更新。图片{ width=60% }


新功能将为政府和商业用户提供来自关键地缘政治领域的更多策划数据,增强他们在关键技术、供应链和研究领域的战略优势。
通过每日增加最多一百万条新记录,exoINSIGHT将为客户提供访问更广泛信息的能力,旨在识别机会和风险。此外,强大的生成人工智能的整合将使用户能够直观地解析数据,并从Exovera的庞大数据藏品中提取见解。升级的统一搜索功能将允许更高效、更有效地探索平台内多个独特数据集。
“exoINSIGHT用户现在可以访问更多高价值的数据池,识别以前可能不明显的模式,”Exovera首席执行官鲍勃·索格吉安说。“通过该平台的先进功能,我们的客户获得了竞争优势、增强了运营效率,并通过新情报解锁了潜在风险。”
SOF Week 2024将于2024年5月6日至10日在佛罗里达州坦帕市举行。Exovera团队将在JW万豪酒店的5110号展位进行功能演示。
Exovera的广泛开源数据存储库包括社交媒体、政府采购和商业记录以及技术报告等公开可用但难以获取的数据。exoINSIGHT是一个分析平台,利用机器学习和自然语言处理来利用持续收集和策划的信息,帮助政府和商业组织总结并将其与来自其他外部来源的数据集成在一个共享数据构件环境中。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Transcarent融资1.26亿美元D轮

Market shift from point solutions to platforms spurs higher valuation and participation from existing and new investors
General Catalyst和7wireVentures领投,这笔投资将加速Transcarent平台的AI增强,使人们更容易获得高质量、支付得起的医疗和护理服务
Transcarent,健康和护理的唯一平台,宣布由General Catalyst和7wireVentures领投的1.26亿美元D轮融资,新投资方包括Geodesic Capital和Memorial Hermann Health System,得到了Threshold Ventures、Kinnevik、Ally Bridge Group、Human Capital、Merck Global Health Innovation Fund、Alta Partners和Leaps by Bayer等之前投资方的支持。图片{ width=60% }


此轮融资将使Transcarent的总融资额达到约4.5亿美元,估值为22亿美元。投资者对D轮感兴趣的先发制人表示了对Transcarent愿景和对削减医疗系统成本的执着承诺的信心。这些额外投资将用于加速AI能力、支持商业增长以及战略增长机会。
Transcarent行业领先的健康和护理平台使人们可以轻松获得护理服务,让雇主提供并支付护理服务变得更容易。它是唯一将医疗、手术、药房和心理保健整合到一个平台的平台。Transcarent平台连接会员到综合的护理体验,包括每日护理(包括60秒内的护理)、药房护理、手术护理(来自美国领先的医疗体系、门诊护理提供者和卓越中心)、体重健康以及端到端的癌症护理。
Transcarent首席执行官Glen Tullman表示:“每个人都问,‘您是否能让人们更容易获得高质量、支付得起的护理服务?’,我们做到了。Transcarent是健康和护理的唯一平台。”。“一个平台——您的手机——涵盖您想要和需要的一切。一种人们不仅喜欢而且热爱的体验。高质量的护理和成本降低,专注于质量。正是大夫开的药方。”
Transcarent执行主席Ken Frazier表示:“不断上涨的医疗成本给雇主带来重大压力,限制了美国的经济增长和活力。”。“我为Transcarent改进当前系统以改善雇主和雇员的系统感到自豪,他们都要求更好、更经济实惠的健康和护理体验。Transcarent取得的成果让所有利益相关者能够专注于最重要的事情:帮助雇员获得改进的健康和健康护理。”
General Catalyst的首席执行官和董事总经理Hemant Taneja表示:“我们对Transcarent的持续支持源于他们的技术,我们认为这是软件、AI、强大的数据科学和量身定制的健康指导融合的独一无二的集成。这种组合在改善健康和护理交付方面引发了真正的变革,与我们的创立使命一致:赋予数百万人在导航医疗体系复杂性方面的力量,并实现更好的健康成果。”
7wireVentures的董事总经理Lee Shapiro表示:“消费者长期以来一直被我们的医疗体系抛下。”。“Transcarent已证明把消费者放在第一位是值得的。通过让消费者参与护理,赋予他们实时信息,使他们能够做出关于自己健康和护理的最佳决策,我们看到了更高质量的结果和成本降低。”
Geodesic Capital的创始合伙人John Roos表示:“Transcarent正在为消费者和雇主扭转医疗保健成本曲线,展示了即使降低成本,也可以提供出色的护理和出色的体验。”。“Transcarent平台正在重新定义数百万美国人访问和提供护理的方式。雇主正在经历‘点解决方案疲劳’,他们知道现状是不可持续的。”。
Threshold Ventures的管理合伙人Emily Melton表示:“医疗保健创新的未来已经到来,面向消费者的平台最终将占据主导地位。”。“Transcarent运用负责任的AI的方法降低了雇主和消费者的福利复杂性,最重要的是,让患者在合理价格上得到正确的护理。”
Memorial Hermann Health System的执行副总裁、首席战略和创新官Feby Abraham表示:“通过与当地社区卫生保健提供者建立有意义的伙伴关系,Transcarent正在通过创新的基于价值的支付模式扩大为健康体系提供支持以支持国家雇主。”。“Transcarent的平台赋予雇主福利计划,使员工能够轻松从可信任的当地提供者处获得高质量的护理。”。
解决医疗成本急剧上升和相关消费者支付能力挑战的需求急迫。2022年,美国在医疗保健上花费了4.4万亿美元,预计到2031年将达到7.2万亿美元。健康支出预计2022年至2031年平均每年增长5.4%,超过国内生产总值(GDP)的增长,到2031年将占国家整体经济的19.6%。
自2022年1月的C轮以来,Transcarent推出了全面的体重健康、癌症、行为健康和药房护理体验,以及扩展了其行业领先的价值导向手术卓越中心计划。2023年,Transcarent成功收购并整合了98point6 AI动力虚拟护理平台和护理业务,其中包括关联的Transcarent诊所。此外,Transcarent推出了全国独立提供商生态系统,与12家领先的健康体系合作,为自保雇主提供更好、更经济实惠的高质量消费者体验。如今,超过430万人通过其雇主或健康计划可以访问Transcarent。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Insight收购Infocenter,2024年ServiceNow年度合作伙伴

Insight将市场领先的2024年ServiceNow咨询和实施合作伙伴纳入其解决方案集成框架
Insight Enterprises(纳斯达克股票代码:NSIT)宣布收购了Infocenter,一个增长迅速的专业ServiceNow Elite合作伙伴,将一整套ServiceNow咨询、实施和托管服务添加到其自动化解决方案组合中。图片{ width=60% }


客户对智能企业自动化的需求持续增长,推动了到2025年估计达到2200亿美元的市场。作为2024年ServiceNow美洲咨询和实施合作伙伴,Infocenter与全球客户合作,实施ServiceNow能力并追求积极的数字化转型目标。
Insight总裁兼首席执行官Joyce Mullen表示:“工作流自动化已成为必要。” “我们的客户期望统一的企业跨部门体验,而凭借Infocenter深厚的ServiceNow专业知识,我们将比以往更有优势地提供以人工智能为驱动的行业领先智能工作流自动化解决方案,创造统一体验并提供有价值的见解。”
Infocenter在现代化Now Platform®上的独特方法将成为Insight的Solutions Integrator框架的一部分。Infocenter的一揽子服务和预构建的应用程序的组合始于RADIUS™业务流程分析,以帮助规划和设计定制的ServiceNow解决方案,而DEVSHOP™企业托管服务则不断提高关键业务领域的创新和效率。
Infocenter首席执行官Michael Vadini表示:“我们很高兴加入Insight,并增强他们为客户架构、交付和管理全企业变革的能力。Insight专注于提供高效的技术访问和使现代化简单化。这与我们的使命完美契合,帮助公司计划、构建和管理ServiceNow - 为各行各业的各种规模的组织带来更聪明、更快速和更好的工作方式。”
ServiceNow主席兼首席执行官Bill McDermott表示:“Insight对Infocenter的大胆举措是我们加速生态系统内业务转型的重要里程碑。我们将一起利用人工智能、工作流自动化和跨企业体验的力量,为我们共同的客户释放无与伦比的价值。”
Infocenter深厚的ServiceNow能力的加入将为Insight庞大的客户群带来加速的业务价值和赋能,与公司在Microsoft Azure、Google Cloud Platform、AWS和私有云基础设施领域的深厚多云能力相辅相成。这为Insight提供了一个绝佳的机会,帮助客户利用云超大规模提供的生成式AI和其他Now®平台增强功能。
ServiceNow全球合作伙伴和渠道高级副总裁Erica Volini表示:“Insight和Infocenter强强联手将提升ServiceNow生态系统。这是为了授权组织在数字时代蓬勃发展,利用ServiceNow平台的全部潜力推动创新,为我们的客户释放无与伦比的价值。”
有关更多信息,请访问insight.com或致电1.800.INSIGHT.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Vention推出新的云机器人和人工智能功能

进一步提升了设计、编程和部署机器人单元的便利性,同时为高级用户提供了更强大的编程工具。图片{ width=60% }


Vention,这家云机器人公司,今天发布了一套基于人工智能的功能,加入其制造自动化平台(MAP)。这些新功能立即对已经使用Vention的4000多家制造商可用,加强了该公司作为唯一一个在云中设计、自动化、下单、部署和运行自动化设备和机器人单元的端到端平台的位置。

机器人单元设计的MachineBuilder功能增强
Vention的基于云的3D设计软件MachineBuilder的最新版本带来了在过去36个月内最全面的增强套件,具有更直观和更智能的设计工具。

具体的产品功能包括:
简化的设计流程:使团队能够更快、更有信心地使用数百种机器设计模板进行工作。更智能的零件放置:在3D设计时,最小化创建机械结构的工作量。由Vention的AI驱动的几何推理引擎(GRE)提供支持,向设计中添加的组件会根据最小的用户输入自动捕捉到所需的方向。增强的零件操作:使用由上下文指导和更易发现的3D操作器驱动的新零件操作工具,减少在MachineBuilder中设计时的学习曲线。实时设计和零件规格:在零件添加到清单时,通过实时更新增加对零件和设计规格的可见性。技术规格、2D绘图等现在可以直接在3D设计环境中获得。

机器人编程能力为复杂的云应用铺平道路
Vention的MachineLogic新的无代码编程指令的发布进一步简化了用户如何在机器人单元中编程机械臂和所有相邻设备。结合新的场景资产功能,开发人员可以利用数字孪生来加速部署过程。用户现在可以在云中编程他们的机器人,然后直接将其部署到工厂生产线。
具体的产品功能包括:
点和点击机器人编程:轻松地将路径点和参考框架插入到数字孪生中。通过新的场景小部件,开发人员可以可视化场景中参考框架和路径点的位置。可扩展的工作流程和强大的创作功能:使用变量和表达式定义参数化的参考框架和路径点。校准框架:在数字孪生中定义校准框架,以实现机器人应用所需的精度水平。

直接且安全地从云端将机器人单元部署到工厂生产线
新增的即时部署功能使机器人开发人员能够将程序和机器配置从数字孪生直接传送到实际机器中,而无需中断生产。这个新功能与Vention的ISO 27001和NIST-800-171认证的MachineCloud基础设施集成在一起,加快部署过程,促进从数字孪生到现实世界的无缝重新部署,而不会影响生产。

增强用户界面创作添加到云机器人平台
Vention在其基于云的机器人编程平台中添加了Web开发工具和工作流程,使高级用户能够创建和模拟包含功能丰富操作界面的机器人应用程序。此新版本确认了Vention致力于提供一个可扩展平台,以满足机器人行业及其从业者不断变化的需求。

此外,作为其致力于满足行业需求的延续,Vention将于5月6日发表其《DIY工业自动化状况报告》的第二版。鉴于其在2023年的成功,公司决定再次对客户进行调查,以更好地了解去年揭示的趋势,如高级制造团队的出现、工业自动化平台化的重要性以及对自助服务和自助设计的偏爱。

“这些发布均关乎机器人和基于AI的设计能力的交集。与传统的3D设计和离线编程软件不同,Vention的制造自动化平台致力于利用人工智能简化设计到部署体验。凭借超过36万个自动化设备和机器人单元设计的数据集,每个都标记有丰富的几何数据和元数据,并持续投资于Vention的几何推理引擎和图神经网络,设计、自动化、下单、部署和在云中操作机器人单元的任务从未如此无缝。而这仅仅是一个开始。”–Vention创始人兼首席执行官Etienne Lacroix

有关Automate 2024的更多信息
从5月6日至9日,参观Vention的2813号展位,观看六台机器运行并参加软件演示和教育动画。

公司创始人兼首席执行官Etienne Lacroix将于5月6日两次讲话:
11:15至中午:S401cd室 – “高级制造团队和DIY工业自动化的崛起”下午1:45至2:45:Automate Show Theater – 工作组讨论:“易用性自动化如何赋予行业力量”。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

「用 AI 训 AI」这事靠谱吗?

在大语言模型领域,微调是改进模型的重要步骤。伴随开源模型数量日益增多,针对LLM的微调方法同样在推陈出新。


2024年初,Meta和纽约大学等机构的研究者提出了一项「自我奖励方法」,可以让大模型自己生成自己的微调数据。研究者对 Llama 2 70B 进行了三个迭代的微调,其生成的模型在 AlpacaEval 2.0 排行榜上优于 Claude 2、Gemini Pro 和 GPT-4 等现有大模型。

奖励模型能干什么?

大型语言模型通过以逐步思考链格式生成解决方案,解决需要复杂多步推理的任务。许多研究关注如何检测和减少幻觉对于提高推理能力。其中,通过训练奖励模型以区分期望的和不期望的输出则是一种有效的方法,奖励模型可以用于强化学习流程或通过拒绝采样进行搜索。如何有效地训练可靠的奖励模型至关重要。

OpenAI 提出了人类反馈强化学习 (RLHF) 的标准方法在 ChatGPT 发布时引起极大关注。该技术模型可以从人类偏好中学习奖励模型,再冻结奖励模型并结合强化学习训练 LLM。通过使用人类偏好数据调整大语言模型(LLM)可以提高预训练模型的指令跟踪性能。但 RLHF 存在依赖人类反馈的局限性。

在此背景下,Meta 提出的「自我奖励语言模型」(Self-Rewarding Language Models, SRLMs)是一种新型的语言模型,在训练过程中利用自身生成的反馈来自我提升。自我奖励语言模型不是被冻结,而是在 LLM 调整期间不断更新,避免了冻结奖励模型质量的瓶颈。

自我奖励模型的核心思路是什么?对比传统奖励模型有什么优势?

自我奖励语言模型(SRLMs)的核心思想在于创建一个智能体,该智能体在训练期间集成了所需的全部能力,而非将任务分离为奖励模型和语言模型。这种方法允许…
图

这种自对齐能力使得模型能够使用人工智能反馈(AIF)进行迭代训练,提升自身组件的性能。自我奖励模型的一个关键特点是其自指令创建机制,它不仅生成候选响应,还自行评估这些响应的质量,充当自身的奖励模型,从而减少了对外部模型的依赖。这一过程通过“LLM-as-a-Judge”机制实现,即将响应评估任务转化为指令遵循任务,而模型自身创建的 AIF 偏好数据则被用作训练集。

在微调阶段,模型同时扮演“学习者”和“法官”的角色,通过上下文微调进一步提升性能。整个过程是一个迭代的自对齐过程,通过构建一系列逐渐改进的模型来实现。

与传统的固定奖励模型不同,自我奖励模型在语言模型对齐过程中不断更新,从而避免了发展瓶颈,并提高了模型自我改进的潜力。相较于传统奖励模型,自我奖励模型的优势在于其动态性和自我迭代的能力。它通过整合奖励模型到同一系统中,实现了任务迁移,允许奖励建模任务和指令遵循任务相互促进和提升。

自我奖励模型和 RLAIF 有关联吗?

RLAIF(Reinforcement Learning from AI Feedback)与自我奖励模型在思路上存在明显差异。RLAIF 采用了 AI 反馈强化学习的方法,使用 AI 而非人类来进行偏好标注,以此扩展强化学习的规模。具体来说,RLAIF 利用 LLM 生成的偏好标签来训练奖励模型(RM),随后使用该 RM 提供奖励以进行强化学习。

Anthropic 在 2022 年 12 月发布的论文《Constitutional AI: Harmlessness from AI Feedback》中首次提出了 RLAIF 的概念,并发现 LLM 在某些任务上的表现甚至可以超越人类。而在 2023 年 9 月,谷歌发表的论文《RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback》进一步推动了 RLAIF 方法的发展。

RLAIF 的关键步骤之一是使用 LLM 来标记偏好。研究者利用现成的 LLM 在成对的候选项中标记偏好,例如,给定一段文本和两个候选摘要,LLM 的任务是评判哪个摘要更为优秀。这种方法不仅提高了训练效率,还解决了传统 RLHF(Reinforcement Learning from Human Feedback)中因人类标注成本高昂和规模受限的问题。

RLAIF 通过 AI 反馈来增强强化学习的能力,使得模型能够处理更大规模的数据集,同时降低了对人类标注的依赖。这种方法为训练更高效、更大规模的语言模型提供了新的可能性,并有助于推动自然语言处理领域的进一步发展。

使用 AI 合成数据训模型有风险吗?最近还有谁正在做AI自我迭代?小模型监督大模型的方法好用吗?

目前,模型训练大部分的数据来自于互联网,如 Twitter、GitHub、Arxiv、Wikipedia、Reddit 等网站。随着模型的规模继续增大,人们需要投喂更多的数据来训练模型。在使用模型生成的数据来训练新模型时,会产生「哈布斯堡诅咒」或称「模型自噬」现象…


来源:机器之心

来源:节选自 2024 年 Week04 业内通讯

图片来源:由GPTNB生成

本文链接:https://www.aixinzhijie.com/article/6845634
转载请注明文章出处

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

劳动节,聊聊AI究竟在替代谁的工作?

大家五一小长假快乐啊。同为劳动者,在咱们的节日吃好、喝好、玩好,简直是天经地义。


但在享受美好假期的间隙,不知道有没有那么一个片刻,你的脑海中会闪过这样一个想法:如果以后AI要代替我劳动,我岂不是连劳动节都没得过了?

事实上,每一次AI技术爆火之后,大众层面讨论最多的就是AI会不会抢夺人类的工作岗位。在ChatGPT带来了AIGC热潮之后尤其如此。ChatGPT要抢文案和程序员的工作,Suno要抢音乐人的工作,Midjourney抢美工的工作,Sora抢影视后期的工作。好家伙,你们这群AI还搁这分工明确,跑马圈地呢?

这时候,社交媒体上一般会出现两个声音。一种是焦虑派,一种是智障派。焦虑派说,“马上我们就要没工作了,AI太可怕了”。智障派就出来说,“实测AI都是智障,担心AI还不如担心陨石砸下来”。

然后两派拥趸吵得不可开交。更气人的是,这两派观点还轮流出现,今天刷了个智障派视频,觉得AI都是废物,放心工作了,明天又出来个焦虑派反驳得有理有据。天天如此拉扯,心情无比烦躁。回头静下来一想,这些搞人心态的视频还都是AI推送的,糟心程度又爆表了。

那么,AI到底有没有取代人类的工作呢?
如果有的话,AI到底在取代谁的工作?
如果我不想被取代,我需要做什么,以及安全水位究竟在哪?
大过节的,不整虚的。我们不说那些理论上、概念上的替代工作。就从目前的真实情况出发,聊聊AI与工作间的那点事。

祝我们能快乐劳动,快乐过好每一个劳动节。

杂活替代vs刚入职场的新人

不知道大家是否记得这样一个新闻。2023年,一个日本女生尝试自杀并获救,她的自杀理由是毕业后想找美工方面的工作,却发现各个公司都用AIGC来生成基础的图片素材。像她这样没有经验,也不能处理复杂工作的新人,一时之间很难找到工作机会。

一种现象目前在全球范围内愈发普遍:AIGC正在负责干那些,本来应该由实习生与职场小白来负责的杂活。

杂活这个概念,在职场中其实非常重要,因为这是能交给新人的第一份工作,虽然简单,但却是入门和学习的基础。这类杂活往往包括做表格、写基础文案、做基础的美工设计等。然后非常不幸的是,这类工作也恰好是AIGC的专长。

我们经常说,AIGC效果并不好,不够专业云云。这时往往会忽略一个事实,就是实习生与新人很多时候做得也并不专业。他们也需要简单的工作作为入门,…


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

爆火Rabbit R1大翻车:被曝套壳安卓!质疑者IP已遭屏蔽

来源:量子位

金磊 发自 凹非寺

号称要干翻所有APP的Rabbit R1,自己先被干翻了。

年初高调宣传的时候,CEO吕骋说好的搭载的是全新操作系统Rabbit OS。


结果就在这两天,安卓专家Mishaal Rahman(下文简称“拉哥”)却发现了个不小的端倪——

这玩意儿就是套壳安卓啊!

用拉哥的话来说就是:

不仅内部系统是安卓,就连整个界面都是由安卓APP提供支持。

而且拉哥还成功把Rabbit R1“移植”到了安卓系统,在谷歌Pixel 6a手机上就能运行……

这下可解释了此前大伙儿长期存在的疑问:为啥Rabbit R1不是个APP呢?

因为它就是个APP!

这一消息的曝光,可真是在科技圈里炸了锅。

The Verge甚至非常犀利地点评道:

人工智能正处于Juicero时代。

最终,Rabbit R1的CEO吕骋也出面回应了。

被曝套壳安卓

其实拉哥的这次实验,也是基于刚才提到的大伙儿对于Rabbit R1长期存在的困惑。

虽然在拉哥实际体验的过程中,承认了Rabbit R1可以实现的一些功能,包括:

与大语言模型交流、拍照获取物体信息、用Spotify播放音乐、用Uber叫车,以及用Doordash订餐等等。

但基本上也就是这些了,似乎Rabbit R1能做的事情都可以在安卓APP上复制。

于是拉哥也产生了类似的疑问:为什么Rabbit R1不做个APP,非要搞成199美元的硬件,而且还得单独配网,电池性能也一般?

机缘巧合之下,一位网友与拉哥分享了Rabbit R1的启动器APK(安卓应用程序包)。

于是拉哥灵机一动,在经过一些修补工作之后,打算设法把Rabbit R1安装在安卓手机上——谷歌Pixel 6a。

不装不知道,一装吓一跳。

拉哥在手机上安装了这个APK之后,Pixel 6a就直接变了Rabbit R1!

并且在设备操作上,Pixel 6a的音量调高键,对应的就是Rabbit R1侧方的按钮。

通过这个按钮,拉哥就可以按照提示,一步一步完成设置向导,创建一个Rabbit R1的帐户。

由于Rabbit R1的显示屏比Pixel 6a小得多,分辨率也低得多,因此可以看到主屏幕界面只占据了手机显示屏的一小部分。

在安装和设置完毕之后,就可以用安卓手机版Rabbit R1向AI助手提问并交流了。

拉哥并没有在这台安卓设备上测试其他的功能,像Spotify、拍照识别等等,但他表示如果其它功能不能正常运行也并意外。

因为Rabbit R1的启动器APK被预先安装在固件中,有一些权限可能是用户无法获取到的。

不过拉哥觉得现在的实验就够了,足以证明一个滑稽的事实:

从本质上讲,包括Rabbit R1在内的许多小众AI硬件产品,都是在修改版本的AOSP上运行的。

不仅如此,拉哥还提供了一个反向操作的证据——有用户已经在Rabbit R1运行安卓APP了。

然而不巧的是,现在这位用户已经把发布的视频“下架”了……

不过在此之前,也有不少网友陆陆续续发布了关于Rabbit R1的测评。

各路网友测评结果

例如国外测评大神Marques Brownlee(下文简称“布朗哥”),就在昨天上新了长达20分钟的测评Rabbit R1视频。

布朗哥先是客观的对Rabbit R1已有的各项功能做了测试,包括跟大模型对话、拍照识物等等。

不过在视频中,布朗哥单独开设了一个章节,名曰“It’s Also Bad”。

首先他吐槽的就是Rabbit R1的电池:

出门带手机的同时,还要带上这个设备就已经是一件很糟糕的事情了。
然后即便你不用Rabbit R1,它的电量也是哐哐地掉啊,差不多4小时就没电了,每天得给它充电好几次。

不仅耗电速度惊人,给这么小的设备充满电竟然还需要45分钟……

其次在功能上,布朗哥认为Rabbit R1缺少很多他认为只是很基础的那些功能,例如不能设置闹钟、不能设置定时器、不能录视频拍照片、不能发邮件、没有内置日历……

我想要的很多基本功能,Rabbit R1上都没有。

没有就没有吧,布朗哥还认为Rabbit R1主打的大语言模型对话,幻觉也是蛮严重的:“非常自信地回答错误答案”。

还有在操作上,没有“返回上级菜单”的按钮,每次都得滚动到菜单顶部。

调整屏幕亮度还得两只手一块上:

基于此,布朗哥还发出了一个灵魂拷问:

你有触屏功能,却只能用来打字。
为什么触屏就不能用在其它功能上?用滚轮和按钮操作简直不要太麻烦好吧。

……

总而言之,布朗哥对Rabbit R1的评价是:花200美元,不知道用来干啥。

除了布朗哥之外,也有不少网友在X上发布关于使用Rabbit R1的体验。

不过有一说一,蛮阴阳的,例如下面这位:

我已经厌倦了X上有那么多人说R1没有用了。
它已经对我的生活方式产生了积极的影响。

仔细看下图,“这不是一个热狗”……嗯,听君一席话,如听一席话。

不过对于网友们吐槽的电池问题,似乎Rabbit R1官方这边给出了修复。

在更新版本之后,电池的使用寿命会明显变长。

但除了Rabbit R1本身之外,背后的CEO吕骋,这两天再一次被冲上了热议的风口——这不过这一次是海外。

吕骋AI硬件,再次踏入同一条河流

原因是吕骋在前两天的一场发布会中的表现。

出场还是非常自信满满的,面对镜头的提问“你觉得这些(同场的)巨头们会给你带来威胁吗”,他说:

我才不管,他们做他们的,我做我的。

然而,到了演示环节,却翻车了……

他在现场让Rabbit R1订麦当劳,但第一次的结果以失败告终;而第二次的尝试也是等了不少的时间:

但其实,这并不是吕骋第一次在AI硬件上碰壁了,细数他的过往经历,开头过程和结尾,似乎都在重复同一条河流。

吕骋,是AI领域的华人连续创业者,西交利物浦大学毕业,创立渡鸦科技(Raven Tech)。

渡鸦当时就主打AI语音交互,希望带来智能手机以后的下一代操作系统,产品在Demo和发布演示中,充满着未来感十足的气息。

加上吕骋本人90后,深受市场关注。他和团队也长袖善舞,在YC等知名海外孵化器的贴金历程上会下功夫,光环迷人。

2017年,百度全资收购渡鸦,吕骋担任百度智能家居硬件总经理;同年,他便带领团队发布了百度首款智能音箱Raven H。

后来在2018年CES上的露出,让《华尔街日报》直接将这款音箱封为当年的最佳产品。

然而即便风光一时,但从结果上来看,消费市场对此并不买单,这款产品也从未实现过更大规模量产。

其后百度世界大会上,吕骋压轴登场,带来了轮式机器人,描绘家庭宠物机器人的未来…可是后来也不了了之了。

或许是希望真正能证明自己,在百度一年后,吕骋选择离职百度,在美国创立了以AI为中心的公司Cyber Manufacture Co.,也就是今天Rabbit的前身。

吕骋有一个爱好——酷爱收集复古合成器,这让他和瑞典音频硬件公司Teenage Engineering的创始人Jesper Kouthoofd建立起了联系。

Teenage Engineering专门做电子设备及相关产品的设计和制造,小型掌上游戏机Playdate,就是其与软件开发公司Panic联合推出的。

不过从目前销量的结果上来看,也是较为一般。

再后来就到了Rabbit R1,吕骋同样也是选择与Teenage Engineering合作设计。

至于对这款产品最初的想法,吕骋自述:

手机虽是生活中“必需品”,但自订阅了iPhone的每年升级换新服务,越发觉得与iPhone之间的情感连接不断被抹去。

换句话说,他对手机已逐渐不感兴趣。

在与Teenage Engineering团队讨论了一番后,双方一拍即合,对Rabbit R1的构想和设计逐渐清晰了起来——打造将AI和复古结合的小玩意。

这也就是Rabbit R1的由来。

那么接下来Rabbit R1的表现会如何,是否会扭转目前的口碑,答案就要交给时间来回答了。

One More Thing

就在拉哥发布爆料贴之后,他的动态又更新了。

首先是他的IP或者设备ID遭到了屏蔽:

我的Pixel 6a现在“无法连接到 Rabbit OS”,所以我无法再发送任何查询。

随后,拉哥又收到了来自吕骋的亲述声明,大致内容是:

Rabbit R1不是安卓APP。我们知道有一些非官方的rabbit OS应用程序/网站模拟器。
rabbit OS和LAM运行在云上,有非常定制的AOSP和低级固件修改,因此没有适当的操作系统和云端点的本地盗版APK将无法访问我们的服务。
在今天的OTA之后,我们实施了多个云验证改进来验证设备/客户端请求。

嗯,有点意思。

参考链接:
[1] Android Authority
[2] The Verge
[3] Mishaal Rahman Twitter
[4] YouTube Video
[5] MarcelD505 Twitter

— 完 —


查看原文

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

高通称霸汽车芯片的时代,要变了

高端芯片从未像现在一样,在汽车行业扮演如此重要的角色。
我不是指曾经恩智浦、德州仪器等公司在汽车芯片市场上的辉煌,而是那些更懂时代的公司——凭借智能手机的红利,高通迅速成为了智能汽车头部供应商,8155 等词汇一度被认为是汽车智能化的标签。


然而行业变革不会是独角戏。
老对手,新故事。联发科,这个在智能手机行业与高通缠斗在一起的公司,在新能源汽车的下半场开门的那一刻,把竞争拉到了全新的维度。

算力定义未来

4 月,我国新能源汽车渗透率超过 50%,新能源汽车下半场提前上演。预言了这一天的比亚迪董事长王传福在北京车展上,又抛出了一个颇具时代印记的观点:上半场看电池,下半场看芯片。
传统汽车以 MCU 芯片为主,用于控制汽车中的各种电气设备,驱动的功能相对单一。一般而言,在燃油车上播放蓝牙音乐,听个收音机,就已经基本是车载娱乐系统的上限了。
车载芯片这个事儿,主打一个够用就行。
到了今天,理想的三联屏,小鹏的智能辅助驾驶,蔚来 NOMI GPT 大模型……汽车智能化的进程俨然就是智能机替代功能机情形的再现,这背后也是芯片话语权更替的关键。
智能汽车越来越多的屏幕,越来越高级的功能、越来越复杂的运算过程,无不是建立在高性能芯片基础上。
算力,成了当下智能汽车芯片躲不开的议题。高通、联发科,这些原本就熟悉移动端高性能芯片玩法的公司,拥有天然的算力、技术、方便开发等特性上优势,趁着老一批汽车芯片巨头还没缓过劲儿来,迅速在智能汽车领域攻城掠地。
如果说 16nm 是传统汽车芯片的上限,那么联发科的 3nm 制程工艺芯片,则是给智能汽车时代的竞争设定了全新的锚点。
近日,联发科一口气发布了三款天玑汽车座舱平台,分别是全球首款 3nm 旗舰汽车芯片 CT-X1,4nm 次旗舰汽车芯片 CT-Y1 和 CT-Y0,三款产品均支持当下最火的端侧生成式 AI 技术。CT-X1 和 CT-Y1/ CT-Y0 已分别得到了国内 6 家头部车企定点,我们期待马上能看到样车。

Image

即便是大家所熟悉的高通骁龙 8295 旗舰芯片,其制程工艺也只是 5nm。尽管联发科未公布三款芯片具体算力,但安兔兔已曝光其 4nm 次旗舰芯片CT-Y1的车机跑分,107 万分的水平与高通 8295 旗舰芯片持平。
由此来看,3nm 制程工艺的 CT-X1 只会比这个水平更强,据称其性能超越8295至少30%,这是一个极其恐怖的事情:在这种环境下,但凡一家公司对先进制程工艺掉以轻心,就极有可能跟不上时代。
正如联发科技资深副总经理、运算联通元宇宙事业群总经理游人杰所说:“无论是座舱还是智驾,都对算力提出了极高的需求,算力背后是先进制程,拥有先进制程能力的芯片设计公司,才能在未来 AI 定义的智能汽车领域立足。”

Image

联发科技 资深副总经理、运算联通元宇宙事业群总经理 游人杰算力过剩?不存在的。
从摩尔定律可以推断,算力总会被应用吞噬,因此我们总会需要更强的算力。这个逻辑在智能汽车高速发展阶段,仍然成立。
在这个算力定义未来的时代。谁掌握了更强算力,谁就掌握了行业的话语权。

AI 定义座舱

AI 曾被智能手机行业认为是伪需求,但随着 ChatGPT、Midjourney 和 kimi 等 AIGC 产品大爆发,再也没人能忽略这一波来势汹汹的 AI 浪潮。
智能汽车以极快的速度拥抱了 AIGC 大模型,甚至仅比智能手机慢了一步——二者所实现的功能不尽相同,运行逻辑却几近相通。
智能座舱,即通过用户的语音指令,并完成一系列接收信息、舒适性和影音体验等方面的需求。AI 的加入,让人机交互的层次更加丰富,车机不仅可以通过用户的语音指令完成功能,还能识别手势、动作和情绪等等。
这些复杂的交互流程,得有一个大模型才跑得通。
当前主流 AIGC 产品,往往采用云端大模型来保证足够的算力。然而对于终端消费品来说,云端大模型受制于隐私安全、延迟、稳定性、成本等问题,端侧大模型的加入,端云结合的方式是一个更加可行的发力方向。
这恰巧进入了联发科的优势领域:让大模型在终端侧跑起来。讲人话,就是在本地运行,不依赖于云端。而这件事情早在智能手机上就已经干过了,而且还干得不错。
因此在天玑汽车座舱平台上,我们可以看到 CT-X1 支持端侧运行 130 亿参数的 AI 大语言模型, CT-Y1和CT-Y0则支持 端侧70 亿参数的 AI 大语言模型。
且均可在车内运行全球多种主流的大语言模型(LLMs)和 AI 绘图功能(Stable Diffusion),支持基于 3D 图形界面的车载语音助手、驾驶警觉性监测等先进的 AI 安全和娱乐应用。

Image

如果说算力是联发科给智能汽车打下的地基,那么以 AI 运算单元 APU 为首的 生成式AI “特技”,则是联发科的独门法宝。
例如在内存带宽问题上,联发科利用内存硬件压缩技术,可降低大模型在端侧设备上的内存占用量,为系统和其他应用的运行留足内存和带宽以实现设备的高速运行。又如天玑座舱芯片拥有高集成度,将 ISP、DSP 和 Wi-Fi、蓝牙 等 19 个模块合为一体,不但能帮助车企控制成本,还能大大降低开发难度,可缩短 50% 以上的开发周期,加速产品上市进程。联发科将其在移动市场上的产品、技术、服务优势转移到汽车业务上,能帮助合作伙伴更快速地让AI大模型上车。

Image

联发科技副总经理、车用平台事业部总经理张豫台认为,“未来生成式 AI 的体验应该是有端侧,也有云+端”,人机交互更适合在端侧进行,跑到云上的话会有延迟性,但对于非即时性的需求,端云一体也可以协作,带来更强的需求处理能力。
生成式 AI 发展的方向,也顺带为智能座舱下了定义。
解决了端侧大模型的运行,也就天然拥有了安全性、高响应速度和低延迟等特性,智能座舱的想象空间得以进一步变大:车机系统会理解你出行的意图,并为你推荐沿途的补能点和餐馆;它甚至能感知驾驶者与乘客的状态,提供一套适合的氛围灯和音乐……
智能座舱,这个用户与车机发生交互的第一现场,正在被 AI 大模型编织出全新的应用场景。

联发科的底气

138 年前,卡尔·弗里德里希·本茨发明的三轮汽车被视为世界上第一辆汽车。但直到 27 年后福特发明出流水线,生产的降本增效才使得汽车走进千家万户。
汽车工业史上的每一次变革,都不缺一个敢为人先的角色。
高通和联发科一直都是移动芯片市场的两个核心玩家,各自有着鲜明的特点。高通先发制人,占据用户心智,联发科则卧薪尝胆,用“天玑”在5G时代一鸣惊人,据Counterpoint数据显示,联发科如今已连续超过3年获得全球市场占有率第一。尽管高通更为人知晓,但近两年挤牙膏式的产品更新一直为人诟病。在默默耕耘座舱芯片十余年,全球出货量超过 2000 万套之后,联发科又将竞争拉到了更高的维度。
更先进的制程工艺,更高的算力以及更可行的端侧 AI 大模型方案,联发科似乎正在成为那个推动时代发展的角色。
“舱驾一体”被公认为行业的未来趋势,在智能驾驶方面,联发科找来了同样是顶级玩家的英伟达“联姻”。
双方合作的决心与效率,在业内也属第一次。去年 5 月,联发科正式公布与英伟达的战略合作,基于各自优势,共同为新一代智能汽车提供解决方案。到今年 3 月,联发科与英伟达合作的四款座舱 SoC 已经发布了:C-X1、C-Y1、C-M1 和 C-V1,均支持 NVIDIA DRIVE OS 软件。

Image

如果说新能源汽车的下半场,就是看芯片,那么联发科与英伟达这两个芯片巨头的强强联合,在 AI 定义座舱的时代下,显得更具有里程碑的意义。彼此长处得以有更大的空间爆发,而合作所辐射出来的能量,在未来不可估量。
接下来的十年被行业认为是 AI 2.0 最重要的时期,是瞬息万变的时期,也是半导体行业挥斥方遒的时期。
站在行业前沿,你必须拥有一个敏锐的观察力,预判走向,抓住行业趋势,才能保证自身在行业里的竞争力。而这也是面向消费者,半导体公司引领智能汽车下一次变革的关键。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB