Oracle数据库23ai为企业数据和应用程序带来AI动力

Oracle AI Vector Search允许轻松搜索存储在关键数据库中的文档、图像和关系数据,基于其概念内容进行搜索。图片{ width=60% }


生成式人工智能现在可以用于查询存储在Oracle数据库中的私有数据。
Oracle Database 23ai,是Oracle的融合数据库的最新版本,现在作为广泛范围的云服务提供。这个长期支持版本包括Oracle AI Vector Search和另外300多个主要功能,专注于简化AI与数据的使用、加快应用程序开发以及运行关键工作负载。新的AI Vector Search功能使客户能够安全地结合文档、图像和其他非结构化数据的搜索,与私人业务数据的搜索相结合,而无需移动或复制数据。Oracle Database 23ai将AI算法带到数据所在的地方,而不是将数据移动到AI算法所在的地方。这使得AI能够实时在Oracle数据库中运行,并大大提高了AI的效果、效率和安全性。
Oracle Database 23ai在Oracle云基础架构(OCI)上可用,包括Oracle Exadata数据库服务、Oracle Exadata Cloud@Customer和Oracle Base数据库服务,以及Oracle Database@Azure。
“Oracle数据库23ai对全球企业来说是一个改变者,由于此版本中突破性AI技术的重要性,我们将其更名为Oracle数据库23ai,” Oracle的执行副总裁Juan Loaiza表示。“AI Vector Search与新的统一开发范式和关键工作能力相结合,使开发人员和数据专业人员能够轻松构建智能应用程序,提高开发人员的生产力,运行关键工作负载。”
“我们很高兴看到AI Vector Search被添加到Oracle数据库中,”野村研究所NRI认证IT架构师Shinichiro Otsuka表示。“我们感谢我们可以在同一个Oracle数据库中运行AI Vector Search,这使我们可以提供可靠和安全的解决方案。”
Oracle Database 23ai中的新功能包括:
AI for Data
Oracle AI Vector Search:使客户能够根据概念内容而不是特定单词、像素或数据值,轻松搜索文档、图像和关系数据。AI Vector Search使得LLM可以使用自然语言界面查询私有业务数据,并帮助LLM提供更准确和相关的结果。此外,AI Vector Search允许开发人员轻松为新应用程序和现有应用程序添加语义搜索功能。所有Oracle数据库的关键功能现在都透明地与AI向量一起工作,使Oracle客户甚至可以为他们最关键的应用程序运行AI Vector Search。通过在同一高性能数据库中存储和处理业务和向量数据,客户可以将AI Vector Search无缝集成到现有业务应用程序中,以实现新的创新性AI用例,而不会损害数据安全性。Oracle Exadata系统软件24ai:Exadata智能存储将AI Vector Search的加速度提高了几个数量级。这使得应用程序可以为大数据量和大用户量运行AI Vector Search。OCI GoldenGate 23ai:GoldenGate实现了跨云数据存储的异构数据集成和高可用性。GoldenGate 23ai提供了新功能,可以让向量实时在异构向量存储之间复制。它还允许企业通过将数据从现有数据库复制到Oracle Database 23ai,以尽量减少风险地快速将AI带到所有数据。
加速应用程序开发
JSON关系统一:JSON关系二元性解决了某些应用程序希望如何使用数据与关系数据库存储数据的不匹配。开发人员几十年来一直能够使用SQL读取和写入关系数据。现在他们还可以使用JSON以REST或本机JSON API轻松检索和存储相同数据,而不会损害关系数据模型固有的数据一致性、存储效率和灵活性。通过JSON关系二元性视图,开发人员和客户不再必须选择单一数据模型用于其数据。他们在同一数据上既享受JSON又享受关系数据模型的优势。图关系统一:操作属性图使开发人员可以轻松构建应用程序,使用属性图查询导航连接数据内部和之间的关系。属性图查询可运行在Oracle数据库支持的所有数据类型之上,包括关系数据、JSON数据和空间数据。开发人员可以直接在操作数据上定义图模型,并使用新的ISO标准SQL/PGQ语法查询图。这使得更容易、更快速地创建分析数据之间连接、模式和关系的应用程序,比如多个财务交易之间的关系。免费开发人员数据库:始终免费自主数据库在云中提供两个免费的自主数据库无服务器实例,无时间限制,预先集成了Oracle APEX、Select AI、数据库工具、机器学习和图形。自主数据库免费容器映像和Oracle数据库免费现在支持Oracle数据库23ai,使开发人员可以轻松下载和尝试最新功能,包括AI Vector Search、JSON关系二元性和操作属性图与SQL。
关键数据
RAFT的Oracle全球分布式数据库:Oracle全球分布式数据库允许将数据存储在多个位置的多个物理数据库中,而不是一个数据库,同时向应用程序公开单个数据库映像。它用于实现超大规模,并帮助解决数据驻留和数据主权要求。现在,物理数据库之间的RAFT复制使得在单个数字秒内自动故障转移且零数据丢失成为可能。在构建云规模分布式数据库时,这是非常关键的,必须实现超高可伸缩性和可用性。在数据库内集成采用基于RAFT的协议的复制简化了创建和管理容错分布式数据库的过程,并减少了维护活跃-活跃可用性的手动过程的需求。Oracle True Cache:True Cache是一个内存中、始终一致、应用透明、高性能的中间层缓存。Oracle True Cache提高了应用程序响应时间,同时减少了对数据库服务器的负载。与其他中间层缓存不同,True Cache数据在每个时间点自动保持事务一致。True Cache不需要开发人员编写代码来填充和管理缓存中的数据,这使得在应用程序和数据库之间部署变得容易。True Cache将Oracle数据库丰富的功能带入到中间层缓存中。所有Oracle SQL、JSON和图查询功能都可在True Cache中使用。In-Database SQL防火墙:Oracle SQL防火墙有助于保护数据库免受未经授权的SQL,包括SQL注入攻击。内置于Oracle数据库23ai中的Oracle SQL防火墙提供了一种可扩展、高性能、难以绕过的方法来应对来自黑客和受损内部帐户的风险。此外,组织可以使用Oracle Data Safe管理多个SQL防火墙,从而显着降低部署成本。

“生成式人工智能的兴起再次强调了向量数据库作为高效搜索数据的方法,无论是在非结构化还是结构化数据源中。然而,正如我们从经验中了解到的那样,孤立的数据库将成为另一个需要管理和保持同步的数据资源,”IDC数据管理软件研究副总裁Carl Olofson表示。“随着需要使用RAG技术精调业务数据来训练LLM,陈旧数据是不可接受的。Oracle数据库23ai旨在通过使用AI Vector Search协调向量与客户数据来解决这个问题。它提供了一组集成功能,客户需要将其生成式AI基础设置,将内容保持为当前和相关内容,从项目转向生产,利用数据库中固有的所有进展。通过Oracle Database 23ai中生成式AI创新,特别是AI Vector Search,Oracle为客户提供了一个巨大的飞跃,提供了一站式解决方案。”
探索AITechPark,了解人工智能、物联网、网络安全、AITech新闻以及来自行业专家的深入更新!

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI 画饼,马斯克不如库克

汽车项目关停、Vision Pro短时间难挑大梁,苹果的新希望还得靠AIGC。

“我们继续看好AIGC带来的收入,很快分享令人兴奋的动态,我们相信AIGC的优势,将让苹果脱颖而出。


北京时间5月3日凌晨的苹果2024财年第二财季(即2024年度第一季度)财报电话会上,库克开篇便率先提及外界关注的AI动向。受此影响,苹果股价盘后涨超6%,以当天收盘市值26719亿美元计算,苹果一天大涨超1600亿美元(约合人民币11586亿元)。

一周前的特斯拉财报发布会上,马斯克同样凭借一句将加速推出廉价车型的承诺,带动特斯拉股价盘后大涨,总市值增加近600亿美元。

但与特斯拉一样,大涨的股价,也多多少少遮掩了苹果相对糟糕的一季度财报数据。2024年一季度,苹果收入为908亿美元,同比下降4%,净利润为236亿美元,同比下降2%。

收入占比超过一半的核心硬件iPhone,成为拖累苹果收入下降的主因。一季度内,iPhone收入同比下降10%,至460亿美元。

除了惯常的外汇因素影响之外,导致iPhone收入下滑的另一因素则是去年同期卖得太好了。在库克看来,如果剔除去年同期超预期的50亿美元左右收入,该季度iPhone收入将维持同比持平状态。

服务业务继续充当着苹果财报中为数不多的亮点,一季度收入239亿美元,再次刷新纪录,同比增长14%。

总收入下跌之际,苹果在各个地区的收入大多遭遇同比下降,其中美洲地区收入373亿美元,同比下降1%;大中华区收入164亿美元,同比下降8%;日本地区收入63亿美元,同比下降13%;亚太其他地区收入67亿美元,同比下降17%。唯有欧洲地区同比微增0.8%,收入由去年同期的239亿美元,涨至241亿美元。

除了披露AIGC进展之外,财大气粗的苹果还推出了史上最大力度的股票回购计划,将在未来拿出至多1100亿美元用于股票回购。

不过,与马斯克谈论廉价车型时一样,库克也未在财报会上过多披露有关AIGC的更多信息,“我不想抢在相关公告前面透露更多信息。可以说的是,AIGC将成为苹果产品中的重要一环,我们相信苹果会在其中脱颖而出,请期待未来几周我们的最新消息。”

iPhone逆势下跌的糟糕销量现状,正逼得库克不得不对AIGC多上上心。

IDC给出的全球一季度智能手机出货量报告中,全球智能手机已呈现复苏之态,出货量同比实现了7.8%的增长,总出货量达到2.894亿部。被三星再次夺走TOP1位置的苹果,重新来到全球第二,其市场份额从20.7%降至17.3%,出货量同比下降9.6%。

中国市场更是难言乐观。Canalys发布的2024年第一季度数据显示,中国大陆智能手机市场时隔两年首次回暖,出货量与去年同期持平,达6770万台。然而,苹果成了TOP5中跌幅最大的一家,以1000万台的出货量排名第五,同比下降25%。

稍微值得欣慰的是,苹果在华业绩下降幅度正在减缓。2023年四季度,苹果大中华区收入208亿美元,同比下降13%。至今年一季度,苹果大中华区收入164亿美元,同比下降8%,降幅由双位数减缓至个位数。

财报电话会上,库克继续表达了对中国市场长期的积极、乐观态度。在被问及iPhone在中国市场一季度的具体表现时,库克没有正面回应,”我们没有办法就产品品类给出就具体市场的数据。”

从2018年开始,苹果在库克主导下由硬变软,大力开拓软件服务收入,尝试将其打造成iPhone之外的增长新曲线,并宣布未来不再公布iPhone具体销量。

面对新环境下的市场竞争,Canalys研究分析师钟晓磊指出,“生成式AI手机成为中国厂商在本土市场打造差异化高端体验,挑战苹果的新赛道。厂商正在通过开发有趣实用的AI手机使用场景,并将AI功能部署到最新的旗舰产品中来积极吸引消费者。”

Canalys预计,新一代生成式AI手机在2024年将占中国市场出货量的12%,领先全球9% 的平均水平。

除了在生成式AI引入手机方面落后一步外,苹果在高端市场最强劲的对手——华为,正走向一步步复苏的道路上。

历经13个季度后,2024年第一季度,华为重夺中国大陆市场第一。Canalys数据显示,凭借Mate及nova系列的热销,华为一季度出货量达到1170万台,市场份额达17%,同比大增70%。

在华为等一众国产手机的竞争下,天风国际分析师郭明錤甚至预测称,对此前2024年iPhone出货量的市场共识已经开始迎来下调,由2.2-2.25亿台,调低至2亿台。这意味着,iPhone的年出货量目标将下调10%左右。

为了加速布局AIGC,苹果内部开始集中资源,关停汽车项目将人才转向生成式AI,裁撤非必要人员以缩减成本。

2月底,苹果正式叫停历经10年研发,投入数十亿美元的汽车项目。汽车一度被视为苹果内部最神秘、保密程度最高的项目,甚至被郭明錤视为能够推动苹果市值增加一万亿美元的关键利器。

但面对自动驾驶落地的重重挑战,苹果也必须在两难中做出取舍,最终还是投靠了眼下更为迫切的AIGC,用以保住自己的核心硬件iPhone。

汽车项目逐步关停之后,除了数百名硬件工程师和汽车设计师外,团队中的大部分员工将被苹果转移到AI部门,专注于生成式AI项目。据彭博社科技记者古尔曼爆料,汽车项目员工数目维持在2000人左右。

作为关停汽车项目的后续,两个月后,苹果在4月份正式启动裁员计划,宣布计划于5月27日起实施一轮大规模裁员,涉及员工总数达614人,这波裁员被视为苹果终止汽车和智能手表Micro LED项目的一部分。

自2020年以来,这是苹果首次进行大规模裁员,也是继几周前取消自动驾驶电动车项目后的又一重大调整。

2023年初,当Meta、谷歌、亚马逊相继开启万人大裁员计划后,作为全球科技巨头中唯一没有宣布大规模裁员的公司,库克彼时回应外界相关担忧时表示,内部已经在着手削减支出和放缓招聘,“我们已经认识到所处的环境是艰难的,所以正在削减成本,对于招聘会采取非常谨慎和深思熟虑的态度。”

但裁员被库克视为是最后的手段,“公司尽量以其他方式来控制成本。”库克补充说道。

如今,为了更有效率推动AIGC项目的落地,库克终于从工具箱中掏出了裁员这把最后的工具。

精简组织之外,苹果还在同步推进AI服务器的建设。集邦咨询此前发布报告表示,超微电脑在积极拓展苹果公司的AI服务器订单。郭明錤更是给出过一份预测,预估苹果2024年将花费47.5亿美元购买超过2万台服务器,以支持其AI技术发展,这一资本开支远远超过2023年的6.2亿美元。

苹果首款由AI驱动的智能硬件即将到来,但不是iPhone。

库克口中即将对外披露更多AIGC相关消息的一大关键时间点,便是5月7日的苹果特别活动。

古尔曼爆料称,该活动上苹果有望发布搭载M4芯片的新款iPad Pro,后者定位为首款“真正由AI驱动的设备”。

一旦成真,这也意味着新款iPad Pro将开启苹果向AI硬件转变的序幕。“从iPad Pro之后,苹果会把每一款新产品都称为AI设备。当然,这一切也都是为了回应近期席卷科技行业的AI热潮。”古尔曼表示。

由新款iPad Pro为苹果在AI领域开道之后,今年6月11日的全球开发者大会(WWDC),将是苹果对外展示其AIGC能力的另一关键舞台,届时,苹果将推出一系列基于生成式AI的软件和工具。

可以预料的是,即将更新的iOS 18,将会植入更多AI相关功能,甚至可以期待亮相13年之久的语音助手Siri,也将迎来2.0版本,在大模型加持下带来更为强大的智能对话能力,以及提供更加个性化的用户体验。

最为外界期待的,可能仍要说今年9月份到来的iPhone 16系列。此前,苹果已经传出和谷歌、OpenAI谈判,将前者的Gemini、ChatGPT等AI大模型产品融入手机的消息。

国产iPhone同样被传出了新的合作对象。在3月份库克访华期间,外媒传出消息,称库克正在和百度谈判,欲引入百度文心大模型等AI技术。界面财联社进一步报道称,其从知情人士处了解到,苹果曾与阿里以及另外一家国产大模型公司进行过洽谈,最后确定由百度提供这项服务,并已经选定百度为今年的iPhone 16、Mac系统和iOS 18提供AI功能。

这不是一个令人意外的消息。百度文心大模型此前已经走进三星手机,其新旗舰Galaxy S24系列集成了文心大模型的多项能力。

但无论最终是选择引入外部大模型厂商的AI技术,还是苹果自研,现在可以确定的是,今年将是苹果借助大模型重塑旗下硬件的一年,正如库克所说,“不管iPhone、iPad、Mac,还是Vision Pro,我们都希望将AI引入其中。”

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

巴菲特称AI与核武器一样可怕,并调侃AI诈骗可能成下一个增长产业|钛媒体AGI

当地时间5月4日,“股神“巴菲特的伯克希尔·哈撒韦公司(Berkshire Hathaway)在美国内布拉斯加州的奥马哈市召开2024年度股东大会。

会上谈及 AI 对传统产业影响时,巴菲特警告 AI 技术的潜在危害,表示自己对AI“一无所知”,但并不意味着AI技术并不重要。


巴菲特还将 AI 与核武器联系起来。他认为 AI 与核武器一样可怕,会颠覆和改变这个世界。

“我说过,当我们开发核武器时,我们让精灵从瓶子里跑了出来,这个精灵做了一些可怕的事情,而这个精灵的力量让我非常害怕,我不知道如何将精灵放回瓶子里,人工智能也有些类似。”巴菲特说道,这是摆脱瓶子的方式的一部分,而且非常重要,并且将由什么人来完成。它是否会改变社会的未来,“而且我不知道有什么方法可以让精灵回到瓶子里,AI也有点类似。

巴菲特还讲述了最近看到 AI 生成自己图像的经历,这让他对这项技术感到紧张,假照片可能用于诈骗。

他预计,基于深度伪造技术带来的 AI 欺诈投资可能将会成为一个“不断增长的行业”。

”当你想到欺骗别人的可能性时,如果你能复制我的图像,说我需要钱,那就是你的女儿。出了车祸。我需要5万美元的电汇。而扫描图像一直是美国生活的一部分,因此这就是我(对于 AI 负面看法)的原因。如果我对投资和诈骗感兴趣,这将是一个不断增长的行业。它在某种程度上是可行的。我现在可能认为,很明显 AI 也有做好事的潜力,作为一个对它一无所知的人,AI 有巨大的潜在好处和巨大的潜在危害,我只是不知道结果会怎样。”巴菲特称。

巴菲特强调,不管是做好事还是做坏事的潜力,AI作用很大,现在只能让它自然而然地在未来发生。

财经专家马红漫分析认为,这是一种调侃。

总的来说,巴菲特对于 AI 有所知晓,希望它能够是件好事,而且他认为他会颠覆和改变这个世界,但是他并不是很了解,也言下之意表示他并不会去在 AI 领域进行投资。

巴菲特和副董事长格雷格·阿贝尔(Greg Abel)在随后的问答中进一步指出,现在每个公司都在讲AI,但哪些可以更安全地来做?很多东西讲结论还太早,现在是无法预测的,想要正确的预测,还言之过早。当然AI绝对是不可思议的。他们再度警告说,如果用AI在社交层面,可能有更好的优势,但是如果用AI来做类似原子弹或者其他不适当的事情,就有问题了。

5月4日公布的伯克希尔·哈撒韦公司财报显示,其第一季度营业利润同比大幅增长,现金持有量则飙升至创纪录水平。今年迄今为止,伯克希尔A类股已上涨超过11%,并于2月底达到历史新高,B类股票同期涨超12%。

数据显示,伯克希尔营业利润(包括公司全资业务的收入)较上年同期飙升39%,达到112.2亿美元;净利润下降了64%至127亿美元。巴菲特称,每个季度未实现的投资收益(或亏损)毫无意义且具有误导性,但仍必须根据公认的会计原则报告这些数据。

更值得注意的是,该公司的现金储备达到创纪录的1889.9亿美元,高于第四季度的1676亿美元,表明巴菲特还无法找到合适的投资目标。巴菲特指出,到本季度末,该公司的现金持股可能会增至2000亿美元。

财报还显示,伯克希尔将其持有的苹果股份削减了13%,尽管这仍是伯克希尔的最大持仓股。同时,伯克希尔还回购了26亿美元的股票,高于2023年第四季度的22亿美元。

谈及可再生能源时,巴菲特称,可再生能源很受关注,但需要时间来开发。而太阳能不会是唯一的电力来源。

此外,预计巴菲特将于今年8月迎来94岁生日,并已任命非保险业务副董事长格雷格·阿贝尔为伯克希尔的继任CEO。巴菲特称,伯克希尔哈撒韦公司的投资决策,包括股票投资组合,将由阿贝尔负责。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

全球算力稀缺下,如何看待端侧 AI 设备投资前景?

文章来源:钛媒体AGI
作者|林志佳
编辑|胡润峰

端侧模型成了科技巨头的兵家必争之地,继在谷歌、三星和微软后,苹果也加入了战局。五一假期之前,苹果发布全新开源语言模型(LLM)OpenELM系列,分为指令微调和预训练两种模型,有0.27B、0.45B、1.08B、3.04B四种参数版,拥有生成文本、代码、翻译、总结摘要等功能,可完全在本地设备上运行,无需连接云服务器,引发市场关注。


过去苹果生态相对封闭,如今它却也以开源姿态加入大模型浪潮当中,借此追上 AI 热潮。据市场预估,苹果首款 AI iPhone 手机将于今年9月发布。苹果CEO蒂姆·库克(TimCook)5月1日财报电话会上强调,苹果内部正进行大量生成式 AI 方面的工作。“我们会抓住生成式 AI 领域的发展机会。我们正在进行重大投资,并期待很快与我们的客户分享一些非常令人兴奋的事情。我们相信AI 的变革力量和前景,我们相信我们拥有使我们在这个新时代脱颖而出的优势,包括苹果公司将硬件、软件和服务无缝集成的独特组合,突破性的苹果芯片与我们行业领先的神经引擎、以及我们的技术、对隐私的坚定不移的关注是我们创造的一切的基础。”库克表示。但与此同时,端侧 AI 存在数据不精准、“幻觉”严重、无涌现能力等问题,因此被更多人认为其不代表AGI行终…

请您检查是否满足要求,然后转换保存为 .md 格式的文件。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI 画饼,马斯克不如库克

汽车项目关停、Vision Pro短时间难挑大梁,苹果的新希望还得靠AIGC。

“我们继续看好AIGC带来的收入,很快分享令人兴奋的动态,我们相信AIGC的优势,将让苹果脱颖而出。


北京时间5月3日凌晨的苹果2024财年第二财季(即2024年度第一季度)财报电话会上,库克开篇便率先提及外界关注的AI动向。受此影响,苹果股价盘后涨超6%,以当天收盘市值26719亿美元计算,苹果一天大涨超1600亿美元(约合人民币11586亿元)。

一周前的特斯拉财报发布会上,马斯克同样凭借一句将加速推出廉价车型的承诺,带动特斯拉股价盘后大涨,总市值增加近600亿美元。

但与特斯拉一样,大涨的股价,也多多少少遮掩了苹果相对糟糕的一季度财报数据。2024年一季度,苹果收入为908亿美元,同比下降4%,净利润为236…

请让我知道是否需要进一步帮助。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

巴菲特称AI与核武器一样可怕,并调侃AI诈骗可能成为下一个增长产业|钛媒体AGI

当地时间5月4日,“股神“巴菲特的伯克希尔·哈撒韦公司(Berkshire Hathaway)在美国内布拉斯加州的奥马哈市召开2024年度股东大会。

会上谈及 AI 对传统产业影响时,巴菲特警告 AI 技术的潜在危害,表示自己对AI“一无所知”,但并不意味着AI技术并不重要。


巴菲特还将 AI 与核武器联系起来。他认为 AI 与核武器一样可怕,会颠覆和改变这个世界。

“我说过,当我们开发核武器时,我们让精灵从瓶子里跑了出来,这个精灵做了一些可怕的事情,而这个精灵的力量让我非常害怕,我不知道如何将精灵放回瓶子里,人工智能也有些类似。”巴菲特说道,这是摆脱瓶子的方式的一部分,而且非常重要,并且将由什么人来完成。它是否会改变社会的未来,“而且我不知道有什么方法可以让精灵回到瓶子里,AI也有点类似。

巴菲特还讲述了最近看到 AI 生成自己图像的经历,这让他对这项技术感到紧张,假照片可能用于诈骗。

他预计,基于深度伪造技术带来的 AI 欺诈投资可能将会成为一个“不断增长的行业”。

”当你想到欺骗别人的可能性时,如果你能复制我的图像,说我需要钱,那就是你的女儿。出了车祸。我需要5万美元的电汇。而扫描图像一直是美国生活的一部分,因此这就是我(对于 AI 负面看法)的原因。如果我对投资和诈骗感兴趣,这将是一个不断增长的行业。它在某种程度上是可行的。我现在可能认为,很明显 AI 也有做好事的潜力,作为一个对它一无所知的人,AI 有巨大的潜在好处和巨大的潜在危害,我只是不知道结果会怎样。”巴菲特称。

巴菲特强调,不管是做好事还是做坏事的潜力,AI作用很大,现在只能让它自然而然地在未来发生。

财经专家马红漫分析认为,这是一种调侃。

总的来说,巴菲特对于 AI 有所知晓,希望它能够是件好事,而且他认为他会颠覆和改变这个世界,但是他并不是很了解,也言下之意表示他并不会去在 AI 领域进行投资。

巴菲特和副董事长格雷格·阿贝尔(Greg Abel)在随后的问答中进一步指出,现在每个公司都在讲AI,但哪些可以更安全地来做?很多东西讲结论还太早,现在是无法预测的,想要正确的预测,还言之过早。当然AI绝对是不可思议的。他们再度警告说,如果用AI在社交层面,可能有更好的优势,但是如果用AI来做类似原子弹或者其他不适当的事情,就有问题了。

5月4日公布的伯克希尔·哈撒韦公司财报显示,其第一季度营业利润同比大幅增长,现金持有量则飙升至创纪录水平。今年迄今为止,伯克希尔A类股已上涨超过11%,并于2月底达到历史新高,B类股票同期涨超12%。

数据显示,伯克希尔营业利润(包括公司全资业务的收入)较上年同期飙升39%,达到112.2亿美元;净利润下降了64%至127亿美元。巴菲特称,每个季度未实现的投资收益(或亏损)毫无意义且具有误导性,但仍必须根据公认的会计原则报告这些数据。

更值得注意的是,该公司的现金储备达到创纪录的1889.9亿美元,高于第四季度的1676亿美元,表明巴菲特还无法找到合适的投资目标。巴菲特指出,到本季度末,该公司的现金持股可能会增至2000亿美元。

财报还显示,伯克希尔将其持有的苹果股份削减了13%,尽管这仍是伯克希尔的最大持仓股。同时,伯克希尔还回购了26亿美元的股票,高于2023年第四季度的22亿美元。

谈及可再生能源时,巴菲特称,可再生能源很受关注,但需要时间来开发。而太阳能不会是唯一的电力来源。

此外,预计巴菲特将于今年8月迎来94岁生日,并已任命非保险业务副董事长格雷格·阿贝尔为伯克希尔的继任CEO。巴菲特称,伯克希尔哈撒韦公司的投资决策,包括股票投资组合,将由阿贝尔负责。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

12年前上手深度学习,Karpathy掀起一波AlexNet时代回忆杀,LeCun、Goodfellow等都下场

没想到,自 2012 年 AlexNet 开启的深度学习革命已经过去了 12 年。
而如今,我们也进入了大模型的时代。


近日,知名 AI 研究科学家 Andrej Karpathy 的一条帖子,让参与这波深度学习变革的许多大佬们陷入了回忆杀。从图灵奖得主 Yann LeCun 到 GAN 之父 Ian Goodfellow,纷纷忆往昔。
到目前为止,该帖子已经有 63 万 + 的浏览量。
在帖子中,Karpathy 提到:有一个有趣的事实是,很多人可能听说过 2012 年 ImageNet/AlexNet 的时刻,以及它开启的深度学习革命。不过,可能很少有人知道,支持这次竞赛获胜作品的代码是由 Alex Krizhevsky 从头开始,用 CUDA/C++ 手工编写的。这个代码仓库叫做 cuda-convnet, 当时托管在 Google Code 上:
https://code.google.com/archive/p/cuda-convnet/
Karpathy 想着 Google Code 是不是已经关闭了 (?),但他在 GitHub 上找到了一些其他开发者基于原始代码创建的新版本,比如:
https://github.com/ulrichstern/cuda-convnet
“AlexNet 是最早将 CUDA 用于深度学习的著名例子之一。”Karpathy 回忆说,正是因为使用了 CUDA 和 GPU,AlexNet 才能处理如此大规模的数据 (ImageNet),并在图像识别任务上取得如此出色的表现。“AlexNet 不仅仅是简单地用了 GPU,还是一个多 GPU 系统。比如 AlexNet 使用了一种叫做模型并行的技术,将卷积运算分成两部分,分别运行在两个 GPU 上。”
Karpathy 提醒大家,你要知道那可是 2012 年啊!“在 2012 年 (大约 12 年前),大多数深度学习研究都是在 Matlab 中进行,跑在 CPU 上,在玩具级别的数据集上不断迭代各种学习算法、网络架构和优化思路。” 他写道。但 AlexNet 的作者 Alex、Ilya 和 Geoff 却做了一件与当时的主流研究风格完全不同的事情 ——“不再纠结于算法细节,只需要拿一个相对标准的卷积神经网络 (ConvNet),把它做得非常大,在一个大规模的数据集 (ImageNet) 上训练它,然后用 CUDA/C++ 把整个东西实现出来。”
Alex Krizhevsky 直接使用 CUDA 和 C++ 编写了所有的代码,包括卷积、池化等深度学习中的基本操作。这种做法非常创新也很有挑战性,需要程序员对算法、硬件架构、编程语言等有深入理解。
从底层开始的编程方式复杂而繁琐,但可以最大限度地优化性能,充分发挥硬件计算能力,也正是这种回归根本的做法为深度学习注入了一股强大动力,构成深度学习历史上的转折点。
有意思的是,这一段描述勾起不少人的回忆,大家纷纷考古 2012 年之前自己使用什么工具实现深度学习项目。纽约大学计算机科学教授 Alfredo Canziani 当时用的是 Torch,“从未听说有人使用 Matlab 进行深度学习研究……”。
对此 Yann lecun 表示同意,2012 年大多数重要的深度学习都是用 Torch 和 Theano 完成的。
Karpathy 有不同看法,他接话说,大多数项目都是在用 Matlab ,自己从未使用过 Theano,2013-2014 年使用过 Torch。
一些网友也透露 Hinton 也是用 Matlab。
看来,当时使用 Matlab 的并不少:
知名的 GAN 之父 Ian Goodfellow 也现身说法,表示当时 Yoshua 的实验室全用 Theano,还说自己在 ImageNet 发布之前,曾为 Alex 的 cuda-convnet 编写了 Theano 捆绑包。
谷歌 DeepMind 主管 Douglas Eck 现身说自己没用过 Matlab,而是 C++,然后转向了 Python/Theano。
纽约大学教授 Kyunghyun Cho 表示,2010 年,他还在大西洋彼岸,当时使用的是 Hannes SChulz 等人做的 CUV 库,帮他从 Matlab 转向了 python。
Lamini 的联合创始人 Gregory Diamos 表示,说服他的论文是吴恩达等人的论文《Deep learning with COTS HPC systems》。
论文表明 Frankenstein CUDA 集群可以击败 10,000 个 CPU 组成的 MapReduce 集群。
论文链接:https://proceedings.mlr.press/v28/coates13.pdf
不过,AlexNet 的巨大成功并非一个孤立的事件,而是当时整个领域发展趋势的一个缩影。一些研究人员已经意识到深度学习需要更大的规模和更强的计算能力,GPU 是一个很有前景的方向。Karpathy 写道,“当然,在 AlexNet 出现之前,深度学习领域已经有了一些向规模化方向发展的迹象。例如,Matlab 已经开始初步支持 GPU。斯坦福大学吴恩达实验室的很多工作都在朝着使用 GPU 进行大规模深度学习的方向发展。还有一些其他的并行努力。”
考古结束时,Karpathy 感慨道  “在编写 C/C++ 代码和 CUDA kernel 时,有一种有趣的感觉,觉得自己仿佛回到了 AlexNet 的时代,回到了 cuda-convnet 的时代。”
当下这种 “back to the basics” 的做法与当年 AlexNet 的做法有着异曲同工 ——AlexNet 的作者从 Matlab 转向 CUDA/C++,是为了追求更高的性能和更大的规模。虽然现在有了高级框架,但在它们无法轻松实现极致性能时,仍然需要回到最底层,亲自编写 CUDA/C++ 代码。
对了,当时国内的研究者们都是用什么?欢迎留言讨论。


图片1
图片2
图片3
图片4
图片5



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

美媒曝猛料:69岁比尔·盖茨仍是幕后大佬,主导微软OpenAI联姻

文章来源:智东西

纳德拉负责抛头露面为微软AI代言,比尔·盖茨才是幕后操盘大佬?

编译 |   ZeR0
编辑 |   漠影

智东西5月4日消息,据Business Insider报道,自2021年以来表面上几乎完全离开微软的微软创始人比尔·盖茨,实际上一直在幕后默默策划微软的AI革命。

据微软现任和前任高管透露,比尔·盖茨仍然密切参与微软的运营,包括提供战略建议、评估产品、聘用高管,以及培养微软与OpenAI联合创始人兼CEO萨姆·阿尔特曼(Sam Altman)的重要关系。


2023年初,微软推出了采用与ChatGPT相同技术的搜索引擎Bing,向谷歌等竞争对手发起挑战。正是盖茨在促成OpenAI和微软的“姻缘”、启动这项计划中发挥了关键作用。如今风靡科技圈的agents和Copilot概念,也是盖茨长期设想的AI形态。

自2016年以来,盖茨一直定期与OpenAI会面。在微软与OpenAI建立合作关系后,OpenAI的领导者定期在盖茨的华盛顿豪宅里向盖茨做报告,让他了解关键的基准和重大的障碍。

2022年年中,盖茨私下向阿尔特曼和OpenAI提出挑战,要求他们创建一个能够通过大学先修课程生物学考试的模型。


一份2017年的备忘录,预言Agents将带来AI新秩序

2017年,在微软与当时相对不知名的初创公司OpenAI建立合作关系之前,比尔·盖茨与CEO萨蒂亚·纳德拉和一小群公司高管分享了一份备忘录。

在备忘录中,比尔·盖茨预测,一个新的世界秩序将很快由他所谓的“AI agents”带来,即能够预测我们每一个需求的数字个人助理。这些agents将比Siri和Alexa强大得多,拥有神一般的知识和超自然的直觉。

亲自参与微软招聘高管,推动微软以消费者为中心

如今,内部人士称,盖茨在微软的影响力远超OpenAI。

整个公司的高管,包括其业务应用主管查尔斯·拉曼纳、首席科学家杰米·蒂文、其Teams聊天应用的负责人杰夫·泰珀、网络安全负责人查理·贝尔等,都会定期与盖茨会面,进行产品审查。

盖茨还亲自参与了微软招聘和留住重要高管的工作。一位前高管表示:“盖茨非常热衷于产品评论,并与高管一对一地交流。”

去年,盖茨告诉《福布斯》,他花了大约10%的时间在华盛顿州雷德蒙德,为微软提供产品路线图方面的建议。

多年来,盖茨还推动微软更加以消费者为中心,尽管有许多消费者技术失败了。


结语:预见变革,改写历史

看起来,2024年的微软与2021年的微软并没有像纳德拉让所有人相信的那么不同。盖茨并没有离开,但他曲折的过去在很大程度上已被遗忘。

弗兰克·肖称,自盖茨于2020年离开董事会以来,他作为技术顾问的角色没有发生任何实质性变化。在他看来,将比尔·盖茨的角色描绘成微软的幕后操纵者,“从根本上说,这是不准确的,与现实不符”。

无论比尔·盖茨在微软一次次奠定AI成功的决策背后扮演了何种角色,不可否认的是,他在2017年备忘录中提出的设想已经充分体现出他的先见之明。

从引领PC操作系统,到投身“互联网潮汐”,再到推动方兴未艾的生成式AI变革,比尔·盖茨总是早早洞察科技变革风向,奉行其预言的微软也总是主动出击,试图在新一股科技浪潮中掌握主导权。

在《未来之路》一书的结尾,盖茨谈到了存在主义。“有点可怕的是,随着计算机技术的进步,从来没有一个时代的领导者同时也是下一个时代的领导者。”39岁的他哀叹道,“因此,从历史的角度来看,我认为微软没有资格在信息时代的高速公路时代领先。”

后来,中年的盖茨透露了他真正的抱负:“我想挑战历史传统。”

微软做到了吗?随着时代变迁,微软有过不少次失败,经历了不少次唱衰,但它依然数十年屹立在全球市值前十,以坚挺的姿态挑战着历史,并重夺市值第一的位置。

如今,年近70岁的盖茨仍在挑战历史——这一次是在幕后。

如果微软的复兴能说明什么问题的话,那就是他似乎正在取得胜利。

来源:Business Insider

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

ICLR 2024 Spotlight | 负标签挖掘助力基于CLIP的分布外检测任务

在机器学习模型日益应用于开放世界场景中,如何有效识别和处理分布外(Out-of-Distribution, OOD)数据成为一个重要研究领域[1]。分布外数据的存在可能导致模型过度自信和错误预测,这在安全关键应用(如自动驾驶和医疗诊断)中尤为危险。


因此,发展一种有效的OOD检测机制,对于提高模型在实际应用中的安全性和可靠性至关重要。

传统的OOD检测方法主要集中在单一模态,特别是图像数据上,而忽视了其他潜在有用的信息源,例如文本数据。随着视觉-语言模型(VLMs)的兴起,它们在多模态学习场景中展示了强大的性能,特别是在处理需要同时理解图像和相关文本描述的任务中表现出色[2]。现有的基于VLMs的OOD检测方法[3,4,5]仅仅使用了ID标签的语义信息,忽略了VLMs模型强大的零样本性能,以及VLMs可以理解非常广阔的语义空间。基于此,我们认为VLMs在OOD检测中有巨大的未开发潜力,尤其是它们可以综合利用图像和文本信息来改善检测效果。

这篇文章围绕三个问题展开:

1.非ID标签的信息是否对零样本OOD检测有帮助?

2.如何挖掘出对零样本OOD检测有利的信息?

3.如何利用挖掘出的信息进行零样本OOD检测?

在这项工作中,我们提出了一种名为NegLabel的创新方法,该方法利用VLMs进行OOD检测。NegLabel方法特别引入了“负标签”机制,这些负标签与已知ID类别标签具有显著的语义差异,通过分析比较图像与ID标签和负标签的亲和性,NegLabel能够有效地区分出属于分布外的样本,从而显著增强模型对OOD样本的识别能力。

实验表明,NegLabel在多个零样本OOD检测基准测试中都达到了优越的性能,在大规模数据集如ImageNet-1k上能够达到94.21% AUROC和25.40% FPR95。与以往基于VLMs的OOD检测方法相比,NegLabel不仅不需要额外的训练过程,而且展示了更优越的性能。此外,NegLabel在不同的VLM架构上都表现出了优异的通用性和鲁棒性。

image

Ø论文链接:https://arxiv.org/pdf/2403.20078.pdf

Ø代码链接:https://github.com/tmlr-group/NegLabel

接下来将简要地向大家分享我们近期发表在 ICLR 2024 上的分布外检测方向的研究结果。

预备知识

image

方法介绍

NegLabel的核心就是引入了“负标签”机制,这些负标签与已知ID类别标签具有显著的语义差异,通过分析比较图像与ID标签和负标签的亲和性,NegLabel能够有效地区分出属于分布外的样本,从而显著增强模型对OOD样本的识别能力。

image

图1. NegLabel的总览图

  1. 如何选取负标签?
    image
    image

  2. 如何利用负标签来进行OOD检测?
    image
    image

  3. 如何理解负样本可以促进零样本OOD检测?
    image

实验结果

我们的研究工作提供了多维度的实验结果以理解我们提出的方法性能及底层机理。

如下表所示,与诸多性能优良的基准方法和先进方法相比,本文提出的方法可以大规模数据集(如ImageNet)上在其基础上达到更优的分布外检测效果。

image

此外,如下表所示,本文的方法在ID数据发生域迁移时有着更好的鲁棒性。

image

在下列两个表格中,我们对NegLabel的各个模块还有VLMs的结构进行了消融实验。左表可以看出,NegMining算法和Grouping策略都可以有效提升OOD检测的性能。右表展示了我们提出的NegLabel算法在不同结构的VLMs有着良好的适应性。

image

我们还对不同输入图像对于ID标签和负标签的亲和度进行了可视化分析,更多详细的实验和结果请参考原文。

image
image

参考文献

[1] Hendrycks, D. and Gimpel, K. A baseline for detecting misclassified and out-of-distribution examples in neural networks. In ICLR, 2017.

[2] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal,Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. In ICML, 2021.

[3] Sepideh Esmaeilpour, Bing Liu, Eric Robertson, and Lei Shu. Zero-shot out-of-distribution detection based on the pre-trained model clip. In AAAI, 2022.

[4] Yifei Ming, Ziyang Cai, Jiuxiang Gu, Yiyou Sun, Wei Li, and Yixuan Li. Delving into out-ofdistribution detection with vision-language representations. In NeurIPS, 2022a.

[5] Hualiang Wang, Yi Li, Huifeng Yao, and Xiaomeng Li. Clipn for zero-shot ood detection: Teaching clip to say no. ICCV, 2023.

[6] Christiane Fellbaum. WordNet: An Electronic Lexical Database. Bradford Books, 1998.

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

看透物体的3D表示和生成模型:NUS团队提出X-Ray

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。


如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.comzhaoyunfeng@jiqizhixin.com

项目主页:https://tau-yihouxiang.github.io/projects/X-Ray/X-Ray.html
论文地址:https://arxiv.org/abs/2404.14329
代码地址:https://github.com/tau-yihouxiang/X-Ray
数据集:https://huggingface.co/datasets/yihouxiang/X-Ray

如今的生成式AI在人工智能领域迅猛发展,在计算机视觉中,图像和视频生成技术已日渐成熟,如Midjourney、Stable Video Diffusion [1]等模型广泛应用。然而,三维视觉领域的生成模型仍面临挑战。

目前的3D模型生成技术通常基于多角度视频生成和重建,如SV3D模型[2],通过生成多角度视频并结合神经辐射场(NeRF)或者3D高斯渲染模型(3D Gaussian Splatting)技术逐步构建3D物体。这种方法主要限制在只能生成简单的、无自遮挡的三维物体,且无法呈现物体内部结构,使得整个生成过程复杂而且不完美,显示出该技术的复杂性和局限性。

究其原因,在于目前缺乏灵活高效且容易泛化的3D Representation (3D表示)。

X射线能够穿透并记录关键物体内外表面信息,受到这个启发,新加坡国立大学(NUS)胡涛博士带领研究团队发布了一种全新的3D表示—X-Ray,它能够序列化地表示从相机摄像角度看过去的物体的逐层次的物体表面形状和纹理,可以充分利用视频生成模型的优势来生成3D物体,可以同时生成物体的内外3D结构。

本文将详细展示X-Ray技术的原理、优势及其广泛的应用前景。

技术革新:物体内外表面的3D表示方法

X-Ray表示:从相机中心开始朝向物体方向的H×W个矩阵点发射射线。在每条射线方向上,逐个记录与物体的表面相交点的L个包含深度、法向量和颜色等的三维属性数据,然后将这些数据组织成L×H×W的形式,实现任意3D模型的张量表示,这就是该团队提出的X-Ray表示方法。

给定一个3D模型,通常是三维网格,首先设置一个相机观测该模型,然后通过光线投影算法(Ray Casting Algorithm)来记录每个相机射线与物体相交的所有表面的属性,包括该表面的深度,法向量,颜色等,为了指示方便,用表示该位置是否存在表面。

然后,获取所有相机射线等相交表面点,即可得到一个完整的X-Ray 3D表达。

给定一个X-Ray,也可以通过解码过程转化回3D模型,这样只需要通过生成X-Ray即可生成3D模型。

基于X-Ray表示的3D模型生成

为了生成高分辨率的多样3D X-Ray模型,该团队使用了与视频格式相似的视频扩散模型架构。这个架构可以处理…

未来展望:新表示带来无限可能

随着机器学习和图像处理技术的不断进步,X-Ray的应用前景无限广阔。

未来,这种技术可能会与增强现实(AR)和虚拟现实(VR)技术结合,为用户创造出完全沉浸式的3D体验。教育和训练领域也可以从中受益,例如通过3D重建提供更为直观的学习材料和模拟实验。

此外,X-Ray技术在医疗影像和生物技术领域的应用,可能改变人们对复杂生物结构的理解和研究方法。期待它如何改变与三维世界的互动方式。

参考文献:

[1] Andreas Blattmann, Tim Dockhorn, Sumith Kulal, Daniel Mendelevitch, Maciej Kilian, Dominik Lorenz, Yam Levi, Zion English, Vikram Voleti, Adam Letts, Varun Jampani, and Robin Rombach. Stable video diffusion: Scaling latent video diffusion models to large datasets. CoRR, 2023.

[2] Vikram Voleti, Chun-Han Yao, Mark Boss, Adam Letts, David Pankratz, Dmitry Tochilkin, Christian Laforte, Robin Rombach, Varun Jampani. SV3D: Novel Multi-view Synthesis and 3D Generation from a Single Image using Latent Video Diffusion. arXiv preprint arXiv:2403.12008, 2024.

[3] Aaron van den Oord, Oriol Vinyals, Koray Kavukcuoglu. Neural Discrete Representation Learning. NeurIPS-2017.

[4] Tao Hu, Wenhang Ge, Yuyang Zhao, Gim Hee Lee. X-Ray: A Sequential 3D Representation for Generation. arXiv preprint arXiv: 2404.14329v1, 2024.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB