VitalEdge Technologies欢迎Paul Crist担任首席营收官

VitalEdge Technologies,全球领先的经销商管理解决方案提供商,高兴地宣布任命Paul Crist为其新任首席营收官(CRO)。图片{ width=60% }


在这个关键职位上,Crist将领导公司的全球销售、客户成功和营销职能,推动战略举措,促进收入增长,巩固VitalEdge作为行业领导者的地位。

Crist拥有超过25年软件营收领导经验,在软件行业的多个领域推动收入和利润增长并拥有实践经验。他的专业知识涵盖全球销售领导力,在诸如ERP、供应链、金融服务和营销技术等领域取得了显著成就。

“我们很高兴欢迎Paul Crist加入VitalEdge。公司在重型设备、农业和物料处理市场已经确定了全球领导地位,我们很高兴让他领导公司的增长策略,迈入新篇章,” VitalEdge的CEO Jeff Hart表示。“他在带领市场团队和运营方面的丰富经验将对我们加速增长路径和利用市场新兴机会至关重要。”

在加入VitalEdge之前,Crist曾在Infor Global Solutions和Optimizely等领先公司担任高级领导职位,成功领导北美销售部门,在公司增长和组织变革期间取得了成功。他的战略眼光和运营卓越性在成功实施市场策略和推动收入扩张方面功不可没。

“我非常激动能在VitalEdge的增长历程的这个关键时刻加入,” Crist表示。“凭借两款行业领先产品和遍布全球近800名员工的才华横溢团队,我们处于一个良好的位置,能够利用眼前的重大机遇,继续推动创新,为我们的客户创造价值。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

特斯拉大裁员后的豪赌,FSD v12 是如何诞生的

文章来源:晚点LatePost

上一次艰难时期的持续投入,成为特斯拉应对这一次艰难时期的武器。

文丨贺乾明
编辑丨黄俊杰

裁员 1 万多人、大幅缩减重要项目 4680 电池团队、负责三电系统的高级副总裁等高管离职……特斯拉 CEO 埃隆·马斯克在 4 月 15 日发起的大调整,只是一个序幕。


之后半个月,特斯拉持续裁撤曾经的重点项目:4680 电池项目继续裁员、北美的超级充电桩团队完全解散、9000 吨以上一体压铸机项目被叫停,相关高管大批离职。接下来的 6 月,特斯拉还会在加州和得州两地裁员超过 6000 人。

马斯克的新赌注是全自动驾驶。无人出租车(Robotaxi)项目被拔到最高优先级。马斯克宣布将在 8 月 8 日发布产品,今年投入百亿美元采购 GPU、研发车载芯片,用于改进自动驾驶系统。他曾多次说过,只要持续迭代这套系统,就会实现无人驾驶,让特斯拉成为 10 万亿美元市值公司。

在特斯拉的第二大市场中国,马斯克也期望用这套系统翻盘。4 月底,马斯克到访中国,被政府领导接见。不久后,他在内部信中说,特斯拉已在中国获得测试部分辅助驾驶系统的许可。

今年开始大面积推送的 FSD v12 自动驾驶系统确实展现出一些不同寻常的潜力。车主的反馈都很接近:“就像人开车一样”,跟上一代相比有进步,狭路会车、超车更从容。

特斯拉 FSD v12 从容应对复杂路况

自动驾驶公司元戎启行 CEO 周光今年 3 月在美国体验 FSD v12 后,承认还是低估了它的能力:“去之前我认为可能是 80 分的东西,但实际做到了 90 分。”

一家国内一线新能源企业负责人体验后相信,特斯拉的自动驾驶会有革命性突破。竞争对手们不敢错过,仅 4 月底北京车展前后,小鹏、华为、长城、商汤绝影等公司宣布将推出类似 FSD v12 的自动驾驶系统。同期,软银、英伟达和微软用 10.8 亿美元投资与特斯拉路线相同的英国自动驾驶公司 Wayve。

沿着特斯拉的路线,一场新的自动驾驶竞赛正在开启。这一次不只要解决技术难题,还是一场资源竞赛。来中国当天,马斯克在社交媒体上划出入局门槛:“任何公司,如果算力投入达不到百亿美元 … 就无法参与这一轮竞争。”

原理:砍掉 30 万行代码,让数据决定车怎么开

2000 年代,DARPA 在沙漠中举办的 3 场无人车挑战赛,是现代无人驾驶技术研发的源头。Google 招揽了优胜者,趟出一条可行的方案,将自动驾驶拆成多个环节:

  • 用激光雷达、摄像头等传感器收集车辆周围环境数据,交给依赖人工标注数据训练出的模型,识别出常见的重要目标和各种障碍物(感知模块),再配合高精地图,让系统了解道路会怎么变化,最后依赖工程师用代码写成的规则决定车怎么开(预测、规划模块)。

最初,特斯拉也按照 Google 开辟的路径去做自动驾驶,为了节省成本和迅速扩大使用范围,他们开发依赖摄像头,而不是昂贵的激光雷达和高精地图的方案。推出 v12 前,特斯拉的自动驾驶系统工作流程大概是:

  • 负责感知的视觉模块先工作,处理摄像头等传感器捕捉的路况数据,识别出路上有什么东西,大概怎么分布,哪些是动的,哪些是不动的,哪些是车道线,可以行车的区域有哪些等等。
  • 然后是预测规划控制模块,调用感知模型处理过的信息,预测场景中人、车等动态目标接下来几秒如何行动,结合模型和工程师提前写入的规则,规划安全的行驶路线,再控制方向盘、加速或刹车踏板,照路线行驶。

特斯拉在 2021 年 AI Day 上公布的 FSD 系统架构

为了尽可能应对路上遇到的各种情况,特斯拉数百名工程师写了 30 万行 C++ 代码制定规则——相当于早期 Linux 操作系统代码量的 1.7 倍。

这不是人学会开车的方式,人不需要认出一条路上可能出现的大量物体到底是什么,也不需要为每个复杂场景提前制定各种规则,就能开车上路。

这样做出来的自动驾驶系统,很难保证绝对安全。真实世界千变万化,再多的工程师也难以穷尽。现在商业化的无人出租车,只能在有限区域运营,车内没有安全员,只不过是运营方把他们转移到云端,远程盯着。

直到 2021 年,在路上遇到一排交通锥,Google 无人驾驶子公司 Waymo 的无人车还是有可能停下来拒绝行驶。此时 Google 已经带着整个行业投入上千亿美元。一批公司在那两年关停已经耗资数十亿美元的无人驾驶项目。

“付出 20% 的努力,就能获得 80% 的能力。” 小鹏原自动驾驶 AI 负责人刘兰个川去年在一场学术活动上说,传统自动驾驶方案开发简单,但继续提升困难。现在他加入英伟达智能汽车团队。

特斯拉 FSD v12 学开车更像人。最大的改变是用了 “端到端” 架构:一端输入摄像头等传感器获得的数据,另一端直接输出车该怎么开。

训练这套系统时,机器从大量车辆行驶视频和人类司机在不同环境下打方向盘、踩加速踏板的数据中学习怎么开车。

在 FSD v12 中,特斯拉工程师们写的规则几乎全被消灭,30 万行规则代码仅剩 2000 多行,不到原来的 1%。

端到端自动驾驶系统学开车的方式,也只是有一点像人,并没有系统能像人类一样真的理解世界。所以人学几天,就能开车上路安全驾驶,但 FSD 要看海量的视频学习。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

国产SaaS苦等IPO!13家企业扎堆递表,一年仍未等来一纸批文

国产SaaS龙头,正在苦等IPO。据智东西不完全统计,目前国内至少有13家SaaS企业处于排队等待IPO的进程中,覆盖电商、零售等垂直领域,也有AI+、财税等通用领域。


这些企业曾在去年6月迎来一波递表小高峰,但由于港交所的交易规则,公司如果没能在6个月内完成聆讯或者上市,招股书都会自动失效。为了推动进度,一些企业会选择在招股书失效后再次提交进行数据等方面的更新。在这13家企业中,有12家选择在去年年底至今年年初更新招股书,积极争取IPO。

如果说一年前,企业扎堆IPO显示出国内SaaS行业可能破冰回暖,那么一年后,看不到尽头的等待期、迟迟冲不上去的交易所,似乎更加印证了二级市场对国内SaaS企业存在疑虑。这些排队IPO的企业为什么集中选择港交所?是什么原因导致它们难以获得上市批准?其扎堆递表到底是因为业绩喜人,还是因为钱烧完了?国产SaaS行业究竟是春天将至,还是步入寒冬?


港交所成第一选择,半数获备案,仅2家企业盈利

为什么大多数中国SaaS企业选择在港交所冲刺上市?智东西与投资行业内人士交流得知,企业选择交易所大多出于利益最大化的考虑,如通过的难度高低、能不能募到钱、估值水平有多高等等。根据毕马威报告,2022年港交所募资总额为128亿美元,仅次于上交所、深交所排名全球IPO市场第3位。

从各市场的特点来看,包括上交所、深交所等板块在内的A股监管严格、中小企业上市门槛高、对外资投资有一定的限制;美股虽然比较看好SaaS企业,但其存在语言、监管及法律差异,竞争激烈,且中国中小企业在美国认知度并不高。相比之下,港股虽然市场规模偏小、估值偏低、发行成本偏高,但其与中国内地市场联系紧密,拥有大量国际投资者,投资者更加活跃、流动性也更强,能够为上市企业提供更多的融资机会和资金,且监管方面相对灵活、上市流程透明,成为国内SaaS企业IPO的优先选择。

此外,2023年2月证监会发布《境内企业境外发行证券和上市管理试行办法》,放宽直接境外发行上市在特定情形下的发行对象、境外募集资金和派发股利币种等限制,进一步降低了监管门槛。目前正在冲刺IPO的13家SaaS企业中,共有广联科技、迈富时、百望云、易达云、有信云、声通科技6家通过备案。

然而,在IPO的路上,通过备案仅仅是前行的一张小小“合规许可证”,并不能证明其IPO进程有新的突破,也不会加快后续流程的速度。不过往好处想,当大家都卡在路上停滞不前的时候,哪怕只是一丁点积极的信号,也聊胜于无。

是什么原因导致它们集体卡在半路上?我们首先能看到的是大幅亏损。根据招股书信息,有11家公司在报告期内处于亏损或由盈转亏状态。多点数智在报告期三年内累计亏损最多,达33.3亿元,颇有种“流血上市”的悲壮感。


转载请注明文章出处

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

万卡时代不打群架,中国智算正过三关

我前两天看到了一个挺震撼的视频,科学家们在NASA戈达德空间飞行中心的天体物理学家指导下,使用Discover超级计算机模拟了跳入黑洞的过程。

画面视觉效果摄人心魄,而一组数据同样让我感到震撼:该视频生成10TB的数据,只用了5天,耗费了0.3%总算力。


如果我们想用自己的笔记本电脑模拟这个场景,需要花费的时间是10年。

“时间就是金钱,效率就是生命”,这句改开时代的口号,在大模型驱动的智算时代,仍旧不过时。

算力作为生产力,所节约的不只是金钱,更重要的是时间。

目前算力集群已经从千卡,迈入了万卡、五万卡集群。甚至有媒体预测,GPT6未来部署的时候,需要70万-80万张卡才能支撑。

那问题来了,万卡集群在执行大规模训练任务时负载重,发生软硬件错误的概率,当然也就更高。万卡时代,一张卡、一台机器或一个链路的故障,都可能导致中断,拖慢进程。那么十万卡、百万卡等更大数量级的提升,未来如何应对?

最近几个月,我们团队跟不少ICT厂商做了交流,简单总结一下行业动向,那就是:迈入万卡时代,必须“过三关”。

万卡时代,做AI=“中彩票”?

有必要首先说明一下,为什么智能计算仍在“堆卡”?从千卡、万卡到十万卡、百万卡,这个趋势是可持续的吗?

伴随着模型规模与数据参数愈发庞大,在可以预见的未来,基础设施层面的“堆卡”竞赛仍将继续。

目前,国际科技巨头如谷歌、微软、苹果等,在算力集群建设上持续投入,其中AI算力占总算力支出的比例持续增长,预计到2025年将达到25%。放眼国内,万卡及以上的组网也成为下一代智算中心的建设重点。

然而,算力集群卡的数量非线性增加,会带来更大的不稳定性和协作难度。正如新华三在前不久的媒体与分析师大会上所说,单卡单打独斗我们(与N卡)有差距,多卡集群服务不能打群架。

我们知道,分布式并行训练能够加速训练过程,是大模型常用的训练方式,相当于将任务分配给多个AI硬件,组成协作节点和集群,主打一个“人多力量大”。但是,人多还得心齐啊,让多卡用高效一致的步伐进行协作,却是一件难事,容易出现“打群架”的情况。

多卡“打架”,集群就会因故障而中断。

一位清华大学计算机教授曾分享过一个数据,其团队写一次容错检查点checkpoint需要三小时,这还是世界先进水平(未经优化前)。

工作三小时就得被迫停下,活(训练过程)又一点不能少,只能加班加点。普通打工人听了都得“抓狂”,更别说要跟技术创新抢速度、作业生产要效率的产学界了。

多卡集群“不打群架”,将算力最大化地有效使用起来,发挥每一张GPU的价值,提升训练效率,对开发人员来说,堪比中“彩票”,价值很大,但概率却不定。

显然,千行百业智能化,当然不能靠“中彩”和运气。

当算力集群即将从万卡,迈入五万、十万乃至百万卡的清晰未来,我们不能只以单一的规模和FLOPS浮点运算次数,来衡量智算中心的综合水平。其他因素也同样重要,比如集群扩展性、兼容性、算效比、能耗比等。

如何提供一个稳定可靠高性能的智算基础设施,万卡时代要“过三关”。

第一关:闯过资源墙

超大规模集群的不稳定性,一方面要对抗硬件数量非线性增长带来的“增熵”。

随着集群增大,AI芯片也会出现算力衰减的情况。支撑稳定高效的训练,就需要优化分布式计算系统的并行加速比。

更高的加速比,可以让集群在执行同一任务时,获得更高的速度和效率。也就是说,算力集群能够最大限度地一直运转,那么有效训练时间的比例更高,是开发人员衡量集群性能的一个关键。

比如国产大模型文心4.0,就通过百度智能云的万卡集群进行训练,支持模型的稳定高效迭代进化。目前,百度智能云上万卡训练集群的加速比和有效训练时间,达到 95% 以上。

另一方面,中国智算还有一个特殊的要求,那就是闯过多元异构算力的“资源墙(resource wall)”。

不少智算中心,使用不一样的AI芯片服务器组成异构集群合池训练,共同完成一个大模型训练。尤其是此前GPU紧缺的情况下,一些数据中心、智算中心在不同时期,购买了不同的GPU,形成了不同类型、不同版本的异构集群。

多元异构的国产算力,既能以用促建,促进国产AI芯片的发展,减少对海外单一供应链的依赖,也能发挥不同类型芯片的特性,提高计算资源的利用率和训练效率。

但要将多元异构算力进行合池训练,会带来精度误差、同步问题,以及更复杂的资源管理和调度策略,更高的开发运维难度等。

未来,每个行业、每家公司都可能训练自己的大模型,带来充沛、高效、稳定的AI算力需求。让十万百万级集群、多元异构的算卡,以高效一致的步伐进行协作,将成为中国智算行业的关键挑战。

第二关:踏宽通信路

如果网络通信的联接能力不畅,大量算力资源折损在传输过程中,给智算中心与AI模型开发者带来的损失都是难以估量的。

如何将大量算卡有效地连接起来,形成一个高效稳定的计算网络,是支撑超大规模集群的关键。

需要说明的是,网络作为算力运输的道路,并不能无止境地拓宽。集群网络,尤其是万卡、十万卡集群网络的拓展,会受到几方面的制约。

首先是成本上,万卡乃至五万卡集群,所需要的网络设备数、端口数、光模块数量,可能会达到百万级别。而一个普通的400G光模块功耗就在10瓦到12瓦,当一个网络需要一万多个光模块,仅仅是电费成本都非常庞大。

此外,有业内人士向我们表示,万卡集群还容易搭建起来,未来如果要有百万卡集群来训练的大模型,可能整个…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

马斯克聘用OpenAI泄密者,他们的梁子着实越结越深...

就在最近,昔日就职于OpenAI的工程师Pavel Izmailov正式加入了马斯克的AI团队,他还在自己的推特上大张旗鼓的做着宣传:研究院@xai。AI工程师的跳槽本不值得惊讶,但Pavel的跳槽却在行业内引起了不小的热议。


就在半年前,Pavel因被指疑似泄露Q*的相关机密而被OpenAI开除。至此,马斯克和OpenAI 的梁子算是越结越深了。马斯克公开聘请“泄密者”,业内对此褒贬不一。最近马斯克旗下的xAI发展迅速,聘用了不少新员工,其中最为神秘,也最引人瞩目的,当属Pavel Izmailov。毕竟,就在半个月以前,他主页还写着“在OpenAI搞搞大模型推理”的介绍。

翻看Pavel的简历,会发现他的成长经历很不一般。他是纽约大学CILVR小组成员(本人还透露即将在2025年秋加入纽约大学 Tandon CSE和Courant CS 担任助理教授)。此前,他一直服务于超级对齐团队。超级对齐发布的第一篇论文的作者,也是Pavel。超级对齐团队成立于去年7月份,是OpenAI为应对不同时间尺度上大模型可能会产生的安全问题,所成立的三大安全团队之一。

对于外部,OpenAI十分重视安全问题和保密问题,但其内部对 AI 的安全开发却存在着很大的争议和分歧,这俨然成为了公开的秘密。甚至有人猜测,这种分歧是去年11月OpenAI 董事会宫斗大戏发生的最主要原因。

网传技术主导者Ilya Sutskever成为“政变”带头人,究其原因,是因为看到了一些东西让他内心不安。在Ilya 带领的超级对齐团队里,很多成员站在Ilya 这边。宫斗事件最终以Sam Altman重回董事会为结束的标志,从某种程度上说,Ilya是此次宫斗的失败者。在此之后,他仿佛从OpenAI 蒸发了一般,惹得外界流言四起,但他再也没有公开露面过,甚至都没在网上进行澄清或辟谣。

Pavel作为超级对齐团队成员,Ilya的部下,被认为是Ilya的支持者。他的“被开除”,也被很多网友猜测是在被Sam Altman秋后算账。有着复杂背景的Pavel前脚刚被开除,后脚就被马斯克聘用。对于马斯克这样的行为,有人认为他是把握住了人才,抢占了先机;但也有人对此嗤之以鼻,认为“雇佣泄密的人的行为就像是在捡垃圾”,无疑是自掘坟墓。

有新仇更有旧恨:马斯克与OpenAI之间的“相爱相杀”…事实上,“聘用泄密员工”并不是马斯克第一次“得罪”OpenAI。今年2月29日,马斯克对于ChatGPT 主体 OpenAI发起起诉,称其违反了他在2015年帮助创建OpenAI时同意的原则,同时被起诉的还有OpenAI的CEO Sam Altman。

马斯克的诉讼文件长达46页,共计1.4万字,包括一些曾不为人知的内幕细节。马斯克在起诉中表示,OpenAI已经背离了其最初非营利及开源的使命,即开发技术以造福人类而不是利润。如今的它并没有像它成立时那样试图“造福人类”,反而专注于为主要投资者微软“实现利润最大化”。由于微软大量资金投入OpenAI,使得OpenAI似乎成了微软的私有开源产品。

当然,不排除马斯克这样做是有私心的,当年早早的离开OpenAI董事会,以至于现在没有了话语权,而且马斯克当年给OpenAI的捐助,在其后来成立盈利子公司时没有转化成相应的股份回报。加上去年3月,马斯克创办了自己的人工智能公司xAI,与OpenAI形成了竞争关系。如今,马斯克又选择雇用明显有错的OpenAI离巢员工,显然会让彼此之间的竞争变得更加激烈。

人才济济的xAI,马斯克是准备在AI赛道放大招了吗?当然,最近马斯克的xAI所网罗到的人才,远不止Pavel自己。

Qian Huang,目前还是斯坦福大学的一名博士生。去年夏天开始,Qian Huang 在Google DeepMind工作,但目前,她在推特上已经明确注明了@xai。尽管我们还不知道她在xAI具体担任的职务是什么,但从GitHub个人主页可以看到,她的研究方向是将机器推理与人类推理结合起来,特别是新知识的合理性,可解释性和可扩展性方面的研究。

Eric Zelikman,斯坦福博士在读生,推特上写明“study why @xai”。之前,他先后在Google研究院和微软研究院待过一段时间。他在个人主页上说:“我对算法如何(以及是否)能够学习有意义的表示和推理很着迷,我正在xAI研究这回事儿。”

Aman Madaan,卡内基梅隆大学语言技术研究所博士在读生。他的研究领域包括大型语言模型,反馈驱动的生成以及代码生成和自然语言推理的交叉领域,研究的首要主题是使用推理时间计算(Inference-Time Compute)来增强推理能力(Reasoning)。攻读博士学位期间,Aman 曾担任Google大脑和艾伦人工智能研究所的学生研究员和合作者;更早以前,他还是Oracle的主要技术人员。

通过分析马斯克新招人员的履历,我们可以发现,新员工主要还是集中于谷歌,斯坦福,Meta,OpenAI,微软等机构。他们都有名校背景,拥有丰富的大模型训练经验,诸如GPT 系列,谷歌Meta 相关大模型等。

如果加上Pavel Izmailov在内的几位新员工,自此马斯克的技术人才版图已扩增至34人(不包括马斯克本人),相比于最开始12人的创始团队增长了约2倍。可以看出,在人才争夺战上,马斯克做好了十足的准备。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

马斯克聘用OpenAI泄密者,他们的梁子着实越结越深...

就在最近,昔日就职于OpenAI的工程师Pavel Izmailov正式加入了马斯克的AI团队,他还在自己的推特上大张旗鼓的做着宣传:研究院@xai。AI工程师的跳槽本不值得惊讶,但Pavel的跳槽却在行业内引起了不小的热议。


就在半年前,Pavel因被指疑似泄露Q*的相关机密而被OpenAI开除。至此,马斯克和OpenAI 的梁子算是越结越深了。马斯克公开聘请“泄密者”,业内对此褒贬不一。最近马斯克旗下的xAI发展迅速,聘用了不少新员工,其中最为神秘,也最惹人瞩目的,当属Pavel Izmailov。毕竟,就在半个月以前,他主页还写着“在OpenAI搞搞大模型推理”的介绍。翻看Pavel的简历,会发现他的成长经历很不一般。他是纽约大学CILVR小组成员(本人还透露即将在2025年秋加入纽约大学 Tandon CSE和Courant CS 担任助理教授)。此前,他一直服务于超级对齐团队。超级对齐发布的第一篇论文的作者,也是Pavel。超级对齐团队成立于去年 7 月份,是OpenAI为应对不同时间尺度上大模型可能会产生的安全问题,所成立的三大安全团队之一。概括说来,超级对齐团队负责的是遥远的未来,给超越人类的超级智能安全性奠定基础。超级对齐团队由Ilya Sutskever和Jan Leike领导。对于外部,OpenAI十分重视安全问题和保密问题,但其内部对 AI 的安全开发却存在着很大的争议和分歧,这俨然成为了公开的秘密。甚至有人猜测,这种分歧是去年 11 月OpenAI 董事会宫斗大戏发生的最主要原因。网传技术主导者 Ilya Sutskever 成为 “政变 ”带头人,究其原因,是因为看到了一些东西让他内心不安。在Ilya 带领的超级对齐团队里,很多成员站在 Ilya 这边。宫斗事件最终以Sam Altman重回董事会为结束的标志,从某种程度上说,Ilya是此次宫斗的失败者。在此之后,他仿佛从OpenAI 蒸发了一般,惹得外界流言四起,但他再也没有公开露面过,甚至都没在网上进行澄清或辟谣。Pavel作为超级对齐团队成员,Ilya的部下,被认为是Ilya的支持者。他的“被开除”,也被很多网友猜测是在被Sam Altman秋后算账。有着复杂背景的Pavel前脚刚被开除,后脚就被马斯克聘用。对于马斯克这样的行为,有人认为他是把握住了人才,抢占了先机;但也有人对此嗤之以鼻,认为“雇佣泄密的人的行为就像是在捡垃圾”,无疑是自掘坟墓。有新仇更有旧恨:马斯克与OpenAI之间的“相爱相杀”…事实上,“聘用泄密员工”并不是马斯克第一次“得罪”OpenAI。今年2月29日,马斯克对于ChatGPT 主体 OpenAI发起起诉,称其违反了他在2015年帮助创建OpenAI时同意的原则,同时被起诉的还有OpenAI的CEO Sam Altma…

文章转自:https://www.aixinzhijie.com/article/6845708



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

7262篇提交,ICLR 2024爆火,两篇国内论文获杰出论文提名

今年共评选出 5 篇杰出论文奖以及 11 篇荣誉提名。

ICLR 全称为国际学习表征会议(International Conference on Learning Representations),今年举办的是第十二届,于 5 月 7 日至 11 日在奥地利维也纳展览会议中心举办。


在机器学习社区中,ICLR 是较为「年轻」的顶级学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才刚刚举办第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度学习的顶级会议。

本届会议共收到了 7262 篇提交论文,接收 2260 篇,整体接收率约为 31%,与去年持平(31.8%)。此外 Spotlights 论文比例为 5%,Oral 论文比例为 1.2%。

相比于往年,无论是参会人数还是论文提交量,ICLR 的热度可以说是有极大的提升。

历届 ICLR 论文数据图

在近日公布的获奖论文中,大会评选出了 5 篇杰出论文奖和 11 篇荣誉提名奖。

5 篇杰出论文奖

Outstanding Paper winners

论文:Generalization in diffusion models arises from geometry-adaptive harmonic representations

论文地址:链接
机构:纽约大学、法兰西公学院
作者:Zahra Kadkhodaie、Florentin Guth、Eero P. Simoncelli、Stéphane Mallat

本文对图像扩散模型的泛化和记忆方面进行了重要的深入分析。作者通过实证研究了图像生成模型何时从记忆输入切换到泛化模式,并通过几何自适应谐波表示与谐波分析的思想建立联系,从架构归纳偏差的角度进一步解释了这一现象。本文涵盖了我们对视觉生成模型理解中缺失的关键部分,对未来研究启发巨大。

论文:Learning Interactive Real-World Simulators

论文地址:链接
机构:UC 伯克利、 Google DeepMind、 MIT、阿尔伯塔大学
作者:Sherry Yang、 Yilun Du、 Kamyar Ghasemipour、Jonathan Tompson、Leslie Kaelbling、Dale Schuurmans、Pieter Abbeel

跨多个来源聚合数据以训练机器人基础模型是一个长期目标。由于不同的机器人具有不同的感知运动接口,这给跨大规模数据集的训练带来了重大挑战。

(以下省略荣誉提名部分)

参考链接:ICLR 2024 Outstanding Paper Awards



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

75亿,软银、微软、英伟达出手,自动驾驶赛道最大融资诞生

自动驾驶赛道再添一名猛将! 
在汽车大厂纷纷进军自动驾驶领域的背景下,Wayve以其独特的技术和创新能力崭露头角。与我们上次介绍的AI自动驾驶软件公司Applied Intuition相比, Wayve更加专注于端到端的自动驾驶解决方案。


 
目前, 该公司已经完成了由软银集团领投的10.5亿美元C轮融资 ,这是英国有史以来规模最大的人工智能筹款活动,也是迄今为止全球排名前20的人工智能筹款活动之一。一起来看看这家自动驾驶公司是如何做到的? 

01.1分钟项目速览

  1. 项目名称:Wayve 
  2. 成立时间:2017年 
  3. 产品简介:
    Wayve是一家英国自动驾驶技术初创公司,专注于开发具身智能(Embodied Intelligence)基础模型,为车辆提供类似“机器人大脑”的自动驾驶解决方案。 
  4. 创始人团队:
    • Amar Shah:CEO,剑桥大学机器学习博士生 
    • Alex Kendall:CTO,剑桥大学机器学习博士生

     

  5. 融资情况:
    • 2017年,Wayve成立并收到250万美元种子轮融资
    • 2019年7月,Wayve筹集了2000万美元的A轮融资
    • 2022年1月,完成了2亿美元的B轮融资,投资方包括微软、维珍和Baillie Gifford等
    • 2024年5月7日,Wayve官宣再获10.5亿美元(约75.8亿元人民币)投资,软银领投,英伟达、微软跟投

02.自动驾驶技术的创新者

Wayve作为一家专注于自动驾驶技术的创新企业,其创立的核心使命就是利用先进的人工智能算法,为汽车打造无需人工干预的自主驾驶能力。 
简单来说,Wayve正在干的事情就是: 开发以AI为主的自动驾驶系统 ,解决传统自动驾驶技术在复杂交通环境下的局限性。 
不可否认,传统的自动驾驶技术过分依赖硬件和手动编码规则,在面对真实世界多变的交通环境时显得力不从心。 
为了突破这些限制,Wayve着力于研发一种通过自主学习的方式,让车辆掌握驾驶规则和模式的人工智能路径,以适应全新的场景和不可预测的道路状况。 

Image 1

公司的技术平台不依赖于高精度地图或特定的硬件配置,而是通过车端传感器收集的数据,由强大的芯片进行计算和处理,使系统能够自主作出驾驶决策。 
这种端到端的AI算法方法,与特斯拉的FSD类似,但Wayve更进一步,通过自监督式学习,从原始的、未标记的数据中学习驾驶技能,从而节省了大量成本,并提高了系统的泛化能力。 
Wayve的创始人Alex Kendall曾公开表示, 具身智能是解决自动驾驶推广过程中面临的长期挑战的关键。 
Alex Kendall也强调了Wayve“不断学习”的强大性能,以适应各种复杂的交通环境,最终实现从L2+辅助驾驶到L4全自动驾驶的跨越。 

03.自动驾驶新范式

Wayve的自动驾驶核心技术,被称为AV2.0。 这项技术赋予车辆一个“机器人大脑”,使其能够从真实世界的环境中学习并与之互动。其显著优势包括: 

  • 安全驾驶优化:通过领域优化的模型架构实现安全驾驶。
  • 解决长尾问题:即使在没有事先训练的情况下,也能将学习到的驾驶技能应用于意外场景。
  • 高效且大规模的学习: 自监督学习方法使得大规模学习变得高效,这对于无缝适应新车辆和地理环境至关重要。
  • 精简传感器套件:AV2.0允许灵活选择传感器,为OEM提供了基于需求选择硬件的自由。
  • 无地图自主性:不依赖高清地图,通过数据驱动的适应性,实现对新地理区域的无缝扩展。
  • 车辆通用性:AV2.0能够适应任何类型的车辆,从乘用车到送货车,一种车型上的改进可以直接惠及另一种。

Image 2

Wayve的LINGO模型也是其产品中的一大亮点。 
LINGO-2模型使用视觉和语言作为输入,能够输出驾驶行为并解释其行动背后的推理。这种创新为解释和训练AI模型提供了新的方式。 
LINGO-2在驾驶时可以对场景和其行为的问题做出回应,提供了一种新的与自动驾驶系统通过对话进行交互的可能性,乘客可以询问自动驾驶系统“它正在做什么”以及“为什么这么做”。

自动驾驶产品的核心构成

总体来说, Wayve的AI驱动程序产品是一个端到端的解决方案 ,主要通过以下几个关键组件来实现: 

  • 车队学习循环:AV2.0引入了一个快速、连续且无缝的车队学习循环,包括记录数据、训练模型、评估性能和部署更新模型。
  • 强大的数据到价值引擎:从多样化的车队中高效收集真实驾驶数据,在基于云的训练基础设施中处理,并将其转化为精炼的驾驶能力。
  • 负责任的模型开发:实施MLops工作流程,利用创新的工具、流程和管道来构建、训练和部署基础模型。
  • 全面的“非道路”评估:在大量模拟驾驶场景中严格测试AI驾驶模型,以实现快速和全面的评估。

技术的多场景应用

Wayve的技术现已可以在多种场景中使用,例如为个人车辆提供自动驾驶功能,提升驾驶体验,减少驾驶疲劳;为货运和物流行业提供自动驾驶解决方案,提高运输效率,降低成本等。 
在大的公共交通领域,Wayve的技术可以在公交车和班车服务中实现自动驾驶,提升服务可靠性,减少人为错误。也通过自动驾驶技术,为共享汽车和出租车服务提供更安全、更高效的运营模式。

Image 3

Wayve公司的自动驾驶技术不仅仅是一项技术进步, 它代表了一种全新的驾驶和出行方式 。通过其具身智能和AI驱动程序产品,Wayve正在为汽车制造商提供一种安全、高效且可扩展的自动驾驶解决方案。 

04.未来动向

隐私保护成为重要一环

Wayve作为一家致力于自动驾驶技术研发的公司,深知数据收集与隐私保护之间的平衡对于行业的长远发展至关重要。他们的系统不仅能够高效地收集和分析用户在道路上遇到的各种数据,如摄像头和雷达传感器捕获的图像和信号,以及车辆的运行状态等,还能够在这些数据的基础上不断优化自动驾驶系统的性能。 

不可避免的是,随着数据收集量的不断增加, 如何确保这些数据的安全性和隐私性成为了Wayve必须面对的重要问题。这些返回数据中包含大量的个人信息,如行人的面部特征、车牌号码等,如果被不当使用或泄露,将可能对个人隐私造成严重影响。 

Wayve采取了多项措施来保护被拍摄个人的隐私 。Wayve已经明确表示,收集这些数据的主要目的是为了研究和改进自动驾驶技术,而不是用于识别个人身份。这意味着,在数据处理和分析的过程中,Wayve会尽可能地避免使用能够直接识别个人的信息。 Wayve还加强了数据的安全管理。他们采用了严格的访问控制和加密技术来确保数据在传输和存储过程中的安全性。只有经过授权的人员才能够访问和分析这些数据,而且这些数据会被存储在安全的环境中,以防止未经授权的访问和泄露。 

Wayve还积极与用户和监管机构沟通,确保他们了解数据收集的目的、方式和使用情况,并遵守相关的隐私保护法规。他们定期发布透明度报告,向公众披露数据的收集、使用和保护情况,以建立用户对公司的信任。 

超越人工智能

目前,Wayve正在积极参加各种行业大会,向全世界介绍他们的自动驾驶技术。 
CVPR是首屈一指的年度计算机视觉盛会,汇聚了来自世界各地的专家和研究人员,Wayve将在CVPR 2024研讨会上展示其在自动驾驶领域的最新研究成果。分享他们对自动驾驶技术的独到见解,以及他们如何通过持续的创新和研究来推动这一领域的发展。 
Wayve在机器人技术方面也有很大的计划。 
首席执行官Alex Kendall表示,“很快你就可以买一辆新车了,而且上面会有Wayve的人工智能……然后,这将实现各种具身人工智能,不仅仅是汽车,还有其他形式的机器人。我认为我们想要实现的最终目标是通过语言模型和聊天机器人超越人工智能。” 
在Alex Kendall的愿景里,未来,我们可以将任务委派给智能机器, 现在的自动驾驶还仅仅只是第一步而已。 

Reference links:

  1. Wayve Product Page
  2. Financial Times Article
  3. TechCrunch News

【声明】:未经允许严禁转载,如需转载请联系我们,文章版权和最终解释权归元宇宙之心所有。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI 找出限制抗生素耐药性的最佳治疗策略,预防「超级细菌」

编辑 | 绿罗

抗生素将人类平均寿命至少提高了十年以上。但抗生素的作用已不如以前,部分原因是抗生素的广泛使用。


「世界各地的卫生机构一致认为,我们正在进入后抗生素时代,」克利夫兰诊所(Cleveland Clinic)医学博士 Jacob Scott 解释道。「如果我们不改变追踪细菌的方式,到 2050 年,死于抗生素耐药性感染的人数将超过死于癌症的人数。」

克利夫兰诊所的研究人员开发了一种人工智能 (AI) 模型,该模型可以仅根据细菌在特定扰动下生长的速度,确定治疗细菌感染的最佳药物组合和时间表。

相关研究以 「Reinforcement learning informs optimal treatment strategies to limit antibiotic resistance」 为题,于 2024 年 2 月 23 日,发布在《Proceedings of the National Academy of Sciences》(PNAS)上。

细菌快速复制,产生突变的后代。过度使用抗生素让细菌有机会练习产生抵抗治疗的突变。随着时间的推移,抗生素会杀死所有敏感细菌,只留下抗生素无法杀死的更强的突变体。

医生们使用的一种策略是抗生素轮换(cycling),来使我们治疗细菌感染的方式现代化。医疗保健提供者在特定时期轮流使用不同的抗生素。更换不同的药物可以缩短细菌对任何一类抗生素产生耐药性的时间。轮换甚至会使细菌对其他抗生素更敏感。

「药物轮换在有效治疗疾病方面显示出很大的希望,」该研究的第一作者、医学生 Davis Weaver 博士说。「问题是我们不知道最好的方法。医院之间没有统一的标准来规定使用哪种抗生素、使用多长时间、按照什么顺序使用。」

研究合著者 Jeff Maltas 博士是克利夫兰诊所的博士后研究员,他使用计算机模型来预测细菌对一种抗生素的耐药性将如何使其对另一种抗生素的耐药性减弱。他与 Weaver 博士合作,研究数据驱动的模型是否可以预测药物轮换方案,从而最大限度地减少抗生素耐药性,并最大限度地提高抗生素敏感性,尽管细菌进化具有随机性。

Weaver 博士带头将强化学习应用于药物轮换模型,该模型教会计算机从错误和成功中学习,以确定完成任务的最佳策略。这项研究是首批将强化学习应用于抗生素轮换疗法的研究之一。Weaver 和 Maltas 说。

「强化学习是一种理想的方法,因为你只需要知道细菌生长的速度,这相对容易确定,」Weaver 博士解释说。「也存在人为变化和错误的空间。你不需要每次都完美地测量增长率,精确到毫秒。」

研究团队的 AI 能够找出最有效的抗生素轮换计划,来治疗多种大肠杆菌菌株并防止耐药性。Maltas 博士说,研究表明 AI 可以支持复杂的决策,例如计算抗生素治疗方案。

Weaver 博士解释说,除了管理个别患者的感染之外,该团队的 AI 模型还可以告知医院如何全面治疗感染。他和他的研究团队还致力于将他们的工作从细菌感染扩展到其他致命疾病。

「这个想法不仅限于细菌,它可以应用于任何能够产生治疗耐药性的东西,」他说。「未来我们相信这些类型的人工智能也可以用于治疗耐药癌症。」

参考内容:https://medicalxpress.com/news/2024-04-ai-treatments-superbugs.html



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nature 子刊,纠缠数据有双重效应,武大、北大「量子纠缠」研究新进展

图片

编辑 | X

量子纠缠是量子计算的核心资源。将纠缠集成到量子机器学习(QML)模型的测量中,导致训练数据大小大幅减少,超过指定的预测误差阈值。


然而,对数据纠缠度如何影响模型性能的分析理解仍然难以捉摸。

在此,来自武汉大学、北京大学、南洋理工大学和悉尼大学的研究团队,通过建立量子「没有免费的午餐」 (no-free-lunch,NFL) 定理来解决这一知识差距。

与之前的发现相反,研究证明纠缠数据对预测误差的影响表现出双重效应,具体取决于允许的测量数量。通过足够数量的测量,增加训练数据的纠缠可以一致地减少预测误差,或减小实现相同预测误差所需的训练数据大小。相反,当允许的测量很少时,使用高度纠缠的数据可能会导致预测误差增加。

该研究为设计先进的 QML 协议提供了重要指导,特别是对于那些专为在有限访问量子资源的早期量子计算机上执行而定制的协议。

相关研究以《Transition role of entangled data in quantum machine learning》为题,于 5 月 2 日发布在《Nature Communications》上。

图片

论文链接:https://www.nature.com/articles/s41467-024-47983-1

量子纠缠与 NFL 定理

量子纠缠是量子领域的一个非凡特征,它使量子计算机超越了传统计算机。在过去的十年中,各种利用纠缠的量子算法被设计用来推进密码学和优化,与传统方法相比,提供运行时加速。

在量子计算机的卓越能力和机器学习取得的惊人成功的推动下,一个被称为量子机器学习 (QML) 的新兴前沿领域出现,寻求在特定学习中超越经典模型。该领域已经取得了实质性进展。

机器学习中表征与数据集相关的学习模型能力的一个基本概念是「没有免费的午餐」 (no-free-lunch,NFL) 定理。NFL 定理得出了一个重要的见解:无论采用何种优化策略,模型的最终性能都取决于训练数据的大小和类型。

基于先前关于纠缠作用和经典 NFL 定理的发现,一个合理的推测是,高纠缠数据有助于提高 QML 模型的性能,并降低样本复杂性,尽管代价是使用大量量子资源来准备数据。这在量子计算的早期阶段可能是无法承受的。

纠缠数据对预测误差具有双重影响

在该研究中,研究人员否定了上述推测,并展示了当 QML 模型非相干学习量子动力学时纠缠数据的过渡作用,如图 1 所示。

图片
图 1:带有纠缠数据的量子 NFL 设置的图示。(来源:论文)

在非相干学习场景中,量子学习器仅限于利用具有不同纠缠程度的数据集对未知 unitary 进行操作,并使用在投影测量下收集的有限测量结果来推断其动态,这与参考文献在学习问题和训练数据方面的情况不同。

纠缠数据是指与参考系统纠缠的量子态,纠缠程度用 Schmidt rank(r)定量表征。经过严格证明,在 NFL 的背景下,根据允许的测量数量 m,纠缠数据对预测误差具有双重影响。

研究人员进行数值模拟来展示纠缠数据的过渡作用、测量数量的影响以及训练数据大小(N)在确定预测误差中的作用。

图片
图 2:非相干学习量子动力学时量子 NFL 定理的模拟结果。(来源:论文)

模拟结果如图 2 所示。从 图 2b 可以看出,对于 N = 2 和 N = 8,当测量数足够大,即 m > 1000 时,预测误差随着测量数 m 的增加和 r 的增加而不断减小。另一方面,对于 N = 8 情况下 m ≤ 100 的少量测量,随着 r 的不断增加,平均预测误差在超过临界点(m = 10 时 r = 3, m = 100 时 r = 4)后先减小后增大。即纠缠数据在确定有限次测量的预测误差方面起过渡作用。

对于不同大小的训练数据,这一观察结果也在图 2b 中得到了验证,其中对于较小的测量时间 m = 10,增加 r 对于降低预测误差没有帮助。相比之下,较大的训练数据量始终会导致较小的预测误差。

研究结果引发了一些需要进一步研究的重要方向。第一个研究方向是探索纠缠数据的过渡作用是否存在于其他 QML 任务中。

另一个研究方向是在通过使用辅助量子系统来利用量子动力学和测量中的纠缠时,是否存在类似的过渡作用。

注:封面来自网络


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB