Suki与Premier, Inc.签署人工智能抄写协议

为了帮助临床医生减轻行政负担,4500多家Premier会员医院和卫生系统可以利用Suki的语音AI。图片{ width=60% }


Suki,作为医疗保健领域语音人工智能(AI)技术的领导者,今天宣布已与Premier, Inc.签署了一项针对AI抄写员的全国采购协议。自2024年5月1日起,新协议允许Premier会员自行选择,利用Premier为Suki预先协商的特殊定价和条款进行AI抄写员服务。
Premier的会员现在可以访问Suki助理,这是一款可解放临床人员行政负担的AI助手。使用生成式AI,Suki会在患者-医师对话中环境监听,并自动生成临床记录。它还简化了其他耗时的任务,包括ICD-10和HCC编码、回答问题和口述。通过与包括 Epic、Cerner、Meditech 和 Athena 在内的所有主要电子病历系统集成,Suki通过实时同步笔记内容来支持所有文档工作流程。临床人员可以在电子病历系统中预先绘制图表,并通过Suki完成笔记,或者在Suki中开始笔记并从电子病历系统中导入相关信息,如生命体征。一旦笔记完成,内容会发送回电子病历系统,其中会更新相关部分。使用Suki,临床人员平均可以编写笔记的速度快72% ,卫生系统通过提高效率、通过详细记录获得更高报酬和增加就诊量等因素最多可以实现9倍的投资回报率。
“我们很高兴能与Premier合作,成为他们AI抄写员的专属解决方案,”Suki的合作伙伴关系副总裁 Heather Miller表示。“Premier致力于改善社区的健康状况,这与Suki的目标相当一致,即使医疗保健技术变得隐形和辅助,以便临床人员可以专注于最重要的事情:他们的患者。我们期待着帮助Premier的会员减轻其行政负担,并提供他们期望从Premier选择的解决方案中获得的质量和价值。”
Premier是一家领先的医疗保健改进公司,整合约4350家美国医院和30万其他提供者组成的联盟,以改善医疗保健。通过集成数据和分析、合作、供应链解决方案、咨询和其他服务,Premier实现了更好的护理和结果,成本更低。Premier对于选择提供者有一个严格的流程,评估他们的各种因素,包括质量、提供价值的能力以及服务和支持。
这一公告是一系列荣誉和伙伴关系中的最新消息,进一步巩固了Suki在AI助手领域的领导地位,包括一份将Suki评为93.2/100的 KLAS 评估,以及与 Amwell、MEDITECH 等公司的合作。它目前在30多个专业领域和所有临床环境中使用,包括门诊、远程医疗、短期护理设施/家庭保健以及住院。要了解更多关于Suki的信息,请访问 www.suki.ai/。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

RADCOM宣布支持AWS的生成式AI应用

Operators can improve operational efficiencies faster using RADCOM ACE enhanced by generative AI
RADCOM Ltd.(纳斯达克:RDCM)今天宣布RADCOM NetTalk™现已在亚马逊网络服务(AWS)上可用。图片{ width=60% }


这些应用程序利用AWS生成式人工智能(AI)服务,使运营商能够受益于RADCOM先进的自动化保障解决方案- RADCOM ACE-监控云原生5G并利用自然语言处理(NLP)的生成式AI的丰富见解。通过生成式人工智能的力量提供与会话AI启用的网络见解的即时访问,旨在为各方,从高管到工程师,提供管理其网络运营的手段,以更快速、成本效益地确保出色的客户体验。
RADCOM NetTalk™使用Amazon Bedrock,这是一个完全托管的服务,通过应用程序编程接口(API)提供来自领先AI公司的高性能基础模型(FMs)的选择,以及组织构建生成式AI应用程序所需的广泛功能。这让运营商能够安全地集成和部署生成式AI功能。RADCOM NetTalk™还使用Amazon QuickSight,这是一款云原生、无服务器的商业智能(BI),具有原生的机器学习(ML),可为统一的商业智能提供超级规模。使用Amazon QuickSight,用户可以通过现代交互式仪表板和自然语言查询解决同一真相来源的分析需求。
“我们很高兴能与AWS合作开发这款针对电信领域的生成式AI应用,结合AWS的强大和我们市场领先的分析解决方案,使得运营商在推出5G并将其网络迁移到云端时能够转变网络运营,”RADCOM的商业拓展副总裁Omer Geva说。“为运营商提供即时而直观的可操作见解,可以帮助运营商开发新服务,改进运营,提升客户体验。”
RADCOM为第三方生成式AI驱动过程和嵌入在其分析中的AI / ML提供可信赖的关联数据和见解。RADCOM NetTalk™利用NLP为网络高管提供对话式AI,以简化和加速业务见解的生成,并为工程师提供与网络相关的见解。
RADCOM NetTalk™利用RADCOM独特的从核心到无线接入网络(RAN)的关联和可信数据集。RADCOM的云原生开放平台为全球运营商提供先进的可定制解决方案。新添加的生成式AI功能可以帮助运营商管理5G复杂性和数据超载,确保5G服务质量,并获得关于其网络中正在发生的事情的实时见解。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Panasas成为VDURA,重新定义AI和HPC数据存储规则

Story Highlights:

Panasas转型为软件公司VDURA宣布计划在今年晚些时候与一家重要公共云合作伙伴关系VDURA的新模型构建在其开创性的并行NAS技术基础之上VDURA现在独特地定位为提供AI和HPC数据平台,与其他供应商不同,它在一个无缝架构平台中利用多种存储介质这种独特的集成数据平台方法将为客户提供无与伦比的简单性、选择性和成本节约,适用于从内部到公共云和混合云的所有环境。图片{ width=60% }


VDURA,作为AI和HPC数据基础设施软件公司,今天宣布正式推出为Panasa旗下长期HPC和并行文件系统的新品牌身份。这一重新定位标志着该公司转型为一个以软件订阅为基础的软件公司。这种软件关注将使公司能够将其经过验证的基础并行NAS技术延伸到创建一种新的符合AI和HPC应用需求的高性能数据平台,这种数据平台可在内部、混合和原生云环境中服务,通过在一个无缝架构平台中独特地利用多种存储介质。{… 省略部分内容 …}


【支持引用】

行业分析师

“对于任何企业来说,被绑定在一种存储技术上并不是一个好策略,由于今年的闪存价格上涨,市场上存在对提供经济但灵活的存储解决方案的压力,因此VDURA在这些条件下做出了明智的举措。将更多类型的存储介质整合成一个模拟超大规模混合架构的格式应该是一个受欢迎的选择,”Coughlin协会总裁Tom Coughlin表示。

“预计到2028年,用于内部HPC和AI高级计算存储解决方案的支出将超过90亿美元,用户正在寻求满足其数据平台存储需求的灵活性、性能、耐用性和选择性,”Hyperion Research研究总监Mark Nossokoff观察到。“借助Panasas建立的传统,一家早期的高性能并行文件系统创新者,VDURA旨在通过其基于PanFS的解决方案的新软件订阅模型来满足这些要求,通过其合作伙伴Avnet提供支持的完整设备体验,支持通过其合作伙伴Avnet提供的广泛选项。”

客户

“我们的工作需要高度复杂的并行工作流程,Panasas在提供我们需要管理每天产生和处理的大量数据的高性能存储和网络方面超出了我们的期望,”In-Depth Geo创始人兼首席执行官Zhaobo Meng博士表示。“VDURA的推出以及这种在一个平台中混合不同存储类型的罕见新选项正好来到我们身边。我们的地面数据需求持续变得更具挑战性。与此同时,更广泛的计算行业正在转向云系统,因此这种新的‘像超大规模运营’模式使我们既能满足严格的硬件需求,也能获得客户日益演变的系统的最佳选择。”


VDURA将于2024年5月12-16日在德国汉堡的ISC高性能计算展会(Booth G22)展示。更多有关VDURA愿景和技术的信息,请访问www.vdura.com。

【注意】:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Markdown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SentinelOne®揭示自主安全的未来

公司通过Singularity™数据湖和Purple AI的力量,推出了新的自主功能,从而通过Singularity平台中的新自主功能来转变安全操作。图片{ width=60% }


SentinelOne(NYSE:S),全球领先的人工智能安全公司,今天宣布了旨在使所有规模的企业能够使用高级网络安全运营的Singularity平台中的全新功能。该公司在RSA 2024上展示了这些功能,这些功能使顶级安全运营中心(SOC)成为各种规模的公司的现实。
SentinelOne的首席执行官Tomer Weingarten表示:“想象一下未来,安全解决方案不仅可以帮助企业应对威胁,而且可以在导致安全事件之前预测并缓解这些威胁。这就是我们在SentinelOne所创造的未来。”。“我们的解决方案旨在改变安全团队管理其环境复杂性和抵御威胁的方式。通过我们最新的创新,客户可以从当今的反应性操作范式转变,并实现一个具有预测性和自主性的未来。”
通过今天的消息,SentinelOne正在通过人工智能和自动化使网络安全民主化,使每家企业都能以同样的规模、速度和复杂性进行运作,而无论预算和资源为何。当与Singularity平台的可见性以及Singularity数据湖的广度和规模结合使用时,Purple AI为任何安全团队提供了一个始终在线、专家分析员,以增强其技能并强化其能力。
SentinelOne首席产品和技术官Ric Smith表示:“众所周知,安全团队对数据、警报和劳动密集型的初步分析感到不堪重负。”。“Purple AI不仅仅是按照您的要求执行任务,它会按照您的需求执行。”。
Purple AI不仅仅是一个聊天机器人或虚拟助手,它是一个先进的人工智能安全解决方案,不仅能够从自然语言中创建复杂的数据查询,还能预测安全分析员需要做什么,并推荐下一步的操作。目前展示并在使用的关键功能包括:
AI动力异常检测:Purple AI从集成的日志来源中发现相关风险。自动警报初步分析:该技术在全球范围内分析数万亿条匿名数据信号,以评估安全分析员如何评估和应对类似警报,并提供自动判决和推荐操作。AI动力响应建议和超级自动化规则:使用全球相似性分析,Purple AI根据其他人如何响应类似警报提供智能响应建议,并聪明地将这些操作建议转变为超级自动化规则,使响应操作进入自主模式。全天候自动调查:通过零触摸自动调查功能,Purple AI消除了人工调查的需求,并赋予安全团队专注于验证和大规模威胁缓解的能力。
所有当前和未来的Purple AI功能都深度嵌入了Singularity平台,并通过一个新的统一安全控制台——Singularity操作中心进行访问。
Smith表示:“多年来,安全供应商一直声称具有统一的仪表板和一个单一的监控屏幕。SentinelOne的Singularity操作中心实现了这一承诺,并通过整合所有事件收集中的警报初步分析和工作流程,代表了简化分析师体验的重大飞跃。”。
现已普遍推出的操作中心通过统一的警报管理、库存管理、相关引擎和具有环境背景的Singularity图表,加速了检测、初步分析和调查过程。

“首次,任何级别的安全分析人员都可以从以前只有最大型组织和预算才能受益的工具、速度和性能中获益。”Smith补充道。
Purple AI和Singularity平台都以统一的Singularity数据湖为核心。基于开放的网络安全模式架构(OCSF),源遥测数据从任何来源快速汇集、标准化、处理,并储存,并将关键问题上升至分析人员的注意。

Smith表示:“拥有所有数据是一个问题,能够快速处理数据以找到见解,并有足够的时间加以行动是另一回事。”。“Singularity数据湖和Purple AI的结合通过自动化消除了这一部分负担,赋予SOC重点关注最关键的任务——保护组织安全。”。
网络安全行业的民主化
分析人员看到这是一个具有突破性的变革。
NAND Research的首席分析师Steve McDowell表示:“在一个单一平台中集成人工智能、数据和自主能力非常强大。”。“生成式人工智能让您可以窥视您的环境中正在发生的一切,并使您能够与基础架构进行真正的数据驱动对话。将这一点与统一的数据湖和平台驱动方法相结合,可以加速和简化您保护企业的方式。”。
立即行动,确保明天的安全
要了解更多关于SentinelOne先进的、AI动力网络安全平台以及如何帮助您的组织确保未来安全的信息,请单击此处。要查看新的Purple AI功能,请访问N-5863展位。
。请注意:将Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Markdown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Red Hat和Run:ai优化混合云中的AI工作负载

Run:ai在Red Hat OpenShift AI上帮助组织最大化GPU资源并简化AI工作流程

Red Hat,全球领先的开源解决方案提供商,以及AI优化和编排领域的领导者Run:ai今天宣布合作,将Run:ai的资源分配能力引入Red Hat OpenShift AI。图片{ width=60% }


通过优化AI操作并优化基础设施,这种合作使企业能够充分利用AI资源,在建立、调整、部署和监控规模化AI应用程序和模型的可信MLOps平台上最大化人类和硬件驱动的工作流。

GPU是推动AI工作流的计算引擎,可实现模型训练、推断、实验等。然而,这些专门的处理器在跨分布式训练作业和推断时可能成本高昂。Red Hat和Run:ai正致力于满足这种对GPU资源优化的关键需求,Run:ai在Red Hat OpenShift AI上的认证OpenShift Operator帮助用户在AI工作负载所在位置进行扩展和优化。Run:ai在Red Hat OpenShift AI上的基于云原生的计算编排平台帮助:

  • 通过专用工作负载调度程序解决AI工作负载的GPU调度问题,更轻松地优先处理关键任务工作负载,并确认分配了足够的资源来支持这些工作负载。
  • 利用分数GPU和监控功能,根据预设的优先级和策略动态分配资源,提高基础设施效率。
  • 获得对共享GPU基础设施的改进控制和可见性,为IT、数据科学和应用开发团队提供更轻松的访问和资源分配。

Run:ai的认证OpenShift Operator现已推出。将来,Red Hat和Run:ai计划继续在这一合作基础上构建,为Run:ai在Red Hat OpenShift AI上增加额外的集成功能。这旨在支持更无缝的客户体验,并进一步加快将AI模型移入生产工作流程,实现更一致的推动。

Red Hat峰会
加入Red Hat峰会主题演讲,了解来自Red Hat高管、客户和合作伙伴的最新动态:

  • 云是混合的。AI也是如此。- 星期二,5月7日,上午8点至10点MDT(YouTube、LinkedIn)
  • 为AI时代优化IT- 星期三,5月8日,上午8:30至9:30 MDT(YouTube、LinkedIn)

支持引用
Steven Huels,Red Hat AI业务部门副总裁兼总经理:“AI的增加采用和对GPU的需求要求企业优化其AI平台,以充分利用操作和基础设施,无论其位于混合云的何处。通过与Run:ai的合作,我们使组织能够在规模上最大化AI工作负载,而不会牺牲AI/ML平台的可靠性或宝贵的GPU资源,无论需要的地方。”

Omri Geller,Run:ai首席执行官兼创始人:“我们很高兴与Red Hat OpenShift AI合作,增强AI运营的力量和潜力。通过利用Red Hat OpenShift的MLOps优势与Run:ai在AI基础设施管理方面的专业知识,我们正在为企业AI设定一个新标准,提供无缝的扩展性和优化的资源管理。”

其他资源
了解更多关于AI在Red Hat的信息
了解更多关于Red Hat OpenShift AI
了解更多关于Run.ai
了解更多关于Red Hat峰会
在Red Hat峰会新闻中心查看本周所有Red Hat的新闻公告
在Twitter/X上关注@RedHatSummit或#RHSummit以获取活动特定更新

与Red Hat联系
了解更多关于Red Hat
在Red Hat新闻中心获取更多新闻
阅读Red Hat博客
在Twitter/X上关注Red Hat
在Instagram上关注Red Hat
观看YouTube上的Red Hat视频
在LinkedIn上关注Red Hat



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI神秘模型,再次被Sam Altman提及

5月6日,OpenAI首席执行官Sam Altman在社交平台分享了一条推文“我是一个优秀的GPT-2聊天机器人”。而在4月30日,Altman就提起过该模型非常喜欢GPT-2。


按道理说一个只有15亿参数在2019年发布的开源模型,被反复提及两次就很不寻常。更意外的是GPT-2曾短暂上榜LMSYS的聊天机器人竞技场性能媲美GPT-4、Claude Opus等模型。很多人猜测,难道这是OpenAI即将发布的GPT-4.5、GPT-5?但在5月2日的一场公开演讲中,Altman否认了这个说法。

GPT-2开源地址

论文地址

从GPT-2展示出的性能来看有一点是可以肯定的,OpenAI掌握了一种新的训练、微调模型方法,可将小参数模型的性能训练的和大参数模型一样优秀,就像微软刚发布的Phi-3系列模型。

所以,这可能是一款针对手机、平板等移动设备的高性能、低消耗模型。因为,微软、谷歌、Meta等科技巨头都发布了针对移动端的大模型,唯独OpenAI迟迟没有发布。

加上苹果正在与OpenAI、谷歌洽谈希望在iOS 18中使用GPT系列模型来增强用户体验和产品性能。非常善于营销的Altman用这种“新锅抄旧菜”的方法进行病毒式宣传来赢得苹果的信任。

一方面,可以极大展示自己模型的性能与技术实力;另一方面给谷歌造成压力,虽然其Gemini系列是针对移动端的,但在市场应用方面并没有太多的反响。

开发移动端的大模型都有一个非常相似的技术特点,就是参数都非常小。例如,微软刚发布的Phi-3系列模型,最小的只有13亿参数;谷歌的Gemini系列模型最小的只有18亿。

这是因为,参数越大模型的神经元就越多对硬件的要求也就越高。如果想部署在移动端的大模型需要考虑电池、存储空间、算力、延迟、推理效率等因素,才能在有限的硬件空间内发挥出最大的性能。例如,直接使用一个1000亿参数的模型,可能还没问几下电池先耗尽了。

此外,在移动设备对推理的效率要求也很高。目前手机端的延迟大概是web、PC端的数倍,如果想更好地使用语音助手、实时翻译、文本问答这些功能,也是使用小参数模型的主要原因之一。

所以,OpenAI使用在2019年开源的15亿参数GPT-2模型来实验最合适不过了,并且架构也是基于Transformer,基本上是GPT-3、GPT-4的先辈模型。

当然,如果未来OpenAI真的发布面向移动端的小参数模型,名字肯定不会再叫GPT-2,大概会起GPT-4 mini/little一类的吧。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

突发!微软本月将推出5000亿新AI模型MAI-1,对抗谷歌和OpenAI|钛媒体

微软“叛变”了。

据The information 5月6日报道,美国科技巨头微软公司将推出一款参数达5000亿的全新 AI 模型产品,内部称为MAI-1,由前谷歌AI负责人、Inflection CEO穆斯塔法·苏莱曼 (Mustafa Suleyman)负责监督。


报道称,MAI-1 将远远大于微软之前训练过的任何小开源模型,拥有大约 5000 亿参数,并可以调整这些参数或设置来确定模型在训练期间学习哪些内容,而且它与 Inflection 之前发布的Pi模型是分开的,预计最快在5月举行的微软Build开发者大会上预览新模型,具体取决于未来几周开发情况。

这意味着,微软在 AI 模型领域“脚踩两只船”:一面投资OpenAI并使用GPT-4模型开发应用,微软则自研小模型辅助;另一面仍秘密收购Inflection AI 团队,并研发更大、最先进的基础模型MAI-1。

据悉,随着2022年底OpenAI发布的 AI 聊天机器人ChatGPT风靡全球,2023年1月,微软向OpenAI投资100多亿美元,并且后者的 AI 模型技术均在微软Microsoft Azure云上进行部署。

2023年3月,微软宣布为其Microsoft 365应用和服务推出一款新的 AI 驱动产品——Copilot(副驾驶),由最新 GPT-4模型提供技术支持,全面接入“Office全家桶”,并正在与20家客户一起测试 Microsoft 365 Copilot。

2023年4月,微软宣布推出基于GPT-4的New Bing必应搜索和Edge浏览器,后来升级为Copilot联网版本。
经过多轮迭代升级,2023年11月,Copilot引入Windows 11系统版本中。同时,经过8个月的测试,Microsoft 365 Copilot企业版正式开启市场销售。

今年3月,微软宣布成立Microsoft AI,该部门将整合微软的消费者AI工作以及Copilot、Bing、Edge等产品。Inflection AI联合创始人Mustafa Surleyman担任其CEO(首席执行官),直接向微软CEO纳德拉汇报。Inflection AI另一位联合创始人Karen Simonyan担任其首席科学家。在此之前,微软还投资入股法国开源 AI 初创公司Mistral AI。

Inflection AI的最新估值超过40亿美元,是继OpenAI、Anthropic之后的美国第三大生成式AI独角兽公司。
同时,据媒体报道,微软将向Inflection AI支付6.5亿美元,其中6.2亿美元用以获得该公司非独家技术授权,三月获得其知识产权。而剩余3000万美元用于让Inflection AI放弃起诉微软的挖角行为。

如今,微软终于被解密收购Inflection AI团队的核心原因——MAI-1 大模型计划。
The information报道称,微软使用更多的计算能力和训练数据,因此成本也会更高,MAI-1拥有5000亿参数梁,相比之下,OpenAI 的GPT-4拥有超过 1 万亿个参数,而Meta Platforms和Mistral等公司发布的较小开源模型则拥有 700 亿参数。

而这将表明,微软愿意在 AI 领域开辟一条独立于 OpenAI 开发的技术的新道路。要知道,OpenAI 目前是微软产品中所有 AI Copilot聊天机器人的基础,可以自动发送电子邮件或快速总结文档。但其中一位知情人士表示,新模型的确切用途尚未确定,这将取决于其性能如何。

因此,新的MAI-1模型将推动微软与谷歌、OpenAI、Anthropic等企业进行竞争。

报道称,为了训练新模型,微软已经预留了大量配备英伟达GPU服务器,并一直在编译训练数据集来改进模型。有知情人士表示,其中一些数据包括从以前用于训练较小模型的各种数据集中提取的数据,如OpenAI GPT-4 创建的文本,以及来自其他来源的数据,如互联网上的公共数据。

因此,我们有望在本月晚些时候微软举行的Build开发者大会上看到这款全新、巨大规模的基础模型。而其竞争对手OpenAI最快将于5月10日发布搜索引擎,对抗微软和谷歌。

受此消息影响,微软股价微涨,截至发稿前,微软(NASDAQ: MSFT)股价涨0.72%。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

一个大模型训练成本要上亿美元,为何开发AI如此烧钱?

AI成本上升主要源于两个关键因素:AI模型规模扩大导致开发成本攀升,需要建设更多数据中心支持更多AI服务。
据国外媒体报道,在生成式人工智能热潮持续近18个月后,一些科技巨头正在逐步证实,人工智能确实具备成为真正的收入驱动因素的潜力。


然而,这一进程也伴随着巨大的资金投入。
微软和谷歌母公司Alphabet最新公布的季度财报均显示,由于企业客户在人工智能服务上的投入增加,其云计算业务实现了显著的收入增长。尽管Meta在将人工智能技术转化为收益方面稍显滞后,但它表示,其相关努力对提高用户参与度和广告定位有积极影响。
为了获取这些早期收益,这三家科技巨头已经投入了数十亿美元用于人工智能的研发,并计划继续加大投资力度。
微软在4月25日宣布,最近一个季度资本支出高达140亿美元,并预计这些成本还将“大幅增加”,部分原因即是对人工智能基础设施的投资。这一数字比去年同期增长了79%。
Alphabet表示,该公司上个季度的资本支出为120亿美元,同比增长91%,并预计今年剩余时间的支出将“达到或超过”这一水平,因为该公司正专注于人工智能带来的机会。
与此同时,Meta也提高了今年的投资预期,现在预计资本支出将在350亿至400亿美元之间。若以该区间的上限计算,将同比增长42%。Meta还特别指出,其在人工智能研究和产品开发方面进行了积极投资。

详细内容请访问原文链接以查看图片。


详细内容请访问原文链接以查看图片。


详细内容请访问原文链接以查看图片。


详细内容请访问原文链接以查看图片。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI神秘模型,再次被Sam Altman提及

5月6日,OpenAI首席执行官Sam Altman在社交平台分享了一条推文“我是一个优秀的GPT-2聊天机器人”。而在4月30日,Altman就提起过该模型非常喜欢GPT-2。


按道理说一个只有15亿参数在2019年发布的开源模型,被反复提及两次就很不寻常。更意外的是GPT-2曾短暂上榜LMSYS的聊天机器人竞技场性能媲美GPT-4、Claude Opus等模型。很多人猜测,难道这是OpenAI即将发布的GPT-4.5、GPT-5?但在5月2日的一场公开演讲中,Altman否认了这个说法。

GPT-2开源地址

论文地址

从GPT-2展示出的性能来看有一点是可以肯定的,OpenAI掌握了一种新的训练、微调模型方法,可将小参数模型的性能训练的和大参数模型一样优秀,就像微软刚发布的Phi-3系列模型。所以,这可能是一款针对手机、平板等移动设备的高性能、低消耗模型。因为,微软、谷歌、Meta等科技巨头都发布了针对移动端的大模型,唯独OpenAI迟迟没有发布。加上苹果正在与OpenAI、谷歌洽谈希望在iOS 18中使用GPT系列模型来增强用户体验和产品性能。非常善于营销的Altman用这种“新锅抄旧菜”的方法进行病毒式宣传来赢得苹果的信任。一方面,可以极大展示自己模型的性能与技术实力;另一方面给谷歌造成压力,虽然其Gemini系列是针对移动端的,但在市场应用方面并没有太多的反响。

开发移动端的大模型都有一个非常相似的技术特点,就是参数都非常小。例如,微软刚发布的Phi-3系列模型,最小的只有13亿参数;谷歌的Gemini系列模型最小的只有18亿。这是因为,参数越大模型的神经元就越多对硬件的要求也就越高。如果想部署在移动端的大模型需要考虑电池、存储空间、算力、延迟、推理效率等因素,才能在有限的硬件空间内发挥出最大的性能。例如,直接使用一个1000亿参数的模型,可能还没问几下电池先耗尽了。此外,在移动设备对推理的效率要求也很高。目前手机端的延迟大概是web、PC端的数倍,如果想更好地使用语音助手、实时翻译、文本问答这些功能,也是使用小参数模型的主要原因之一。

所以,OpenAI使用在2019年开源的15亿参数GPT-2模型来实验最合适不过了,并且架构也是基于Transformer,基本上是GPT-3、GPT-4的先辈模型。当然,如果未来OpenAI真的发布面向移动端的小参数模型,名字肯定不会再叫GPT-2,大概会起GPT-4 mini/little一类的吧。【本文素材来源OpenAI,如有侵权请联系删除】

END



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

突发!微软本月将推出5000亿新AI模型MAI-1,对抗谷歌和OpenAI|钛媒体

微软“叛变”了。

据The information 5月6日报道,美国科技巨头微软公司将推出一款参数达5000亿的全新 AI 模型产品,内部称为MAI-1,由前谷歌AI负责人、Inflection CEO穆斯塔法·苏莱曼 (Mustafa Suleyman)负责监督。


报道称,MAI-1 将远远大于微软之前训练过的任何小开源模型,拥有大约 5000 亿参数,并可以调整这些参数或设置来确定模型在训练期间学习哪些内容,而且它与 Inflection 之前发布的Pi模型是分开的,预计最快在5月举行的微软Build开发者大会上预览新模型,具体取决于未来几周开发情况。

这意味着,微软在 AI 模型领域“脚踩两只船”:一面投资OpenAI并使用GPT-4模型开发应用,微软则自研小模型辅助;另一面仍秘密收购Inflection AI 团队,并研发更大、最先进的基础模型MAI-1。

据悉,随着2022年底OpenAI发布的 AI 聊天机器人ChatGPT风靡全球,2023年1月,微软向OpenAI投资100多亿美元,并且后者的 AI 模型技术均在微软Microsoft Azure云上进行部署。

2023年3月,微软宣布为其Microsoft 365应用和服务推出一款新的 AI 驱动产品——Copilot(副驾驶),由最新 GPT-4模型提供技术支持,全面接入“Office全家桶”,并正在与20家客户一起测试 Microsoft 365 Copilot。

2023年4月,微软宣布推出基于GPT-4的New Bing必应搜索和Edge浏览器,后来升级为Copilot联网版本。经过多轮迭代升级,2023年11月,Copilot引入Windows 11系统版本中。同时,经过8个月的测试,Microsoft 365 Copilot企业版正式开启市场销售。

今年3月,微软宣布成立Microsoft AI,该部门将整合微软的消费者AI工作以及Copilot、Bing、Edge等产品。Inflection AI联合创始人Mustafa Surleyman担任其CEO(首席执行官),直接向微软CEO纳德拉汇报。Inflection AI另一位联合创始人Karen Simonyan担任其首席科学家。在此之前,微软还投资入股法国开源 AI 初创公司Mistral AI。

Inflection AI的最新估值超过40亿美元,是继OpenAI、Anthropic之后的美国第三大生成式AI独角兽公司。同时,据媒体报道,微软将向Inflection AI支付6.5亿美元,其中6.2亿美元用以获得该公司非独家技术授权,三月获得其知识产权。而剩余3000万美元用于让Inflection AI放弃起诉微软的挖角行为。

如今,微软终于被解密收购Inflection AI团队的核心原因——MAI-1 大模型计划。

The information报道称,微软使用更多的计算能力和训练数据,因此成本也会更高,MAI-1拥有5000亿参数梁,相比之下,OpenAI 的GPT-4拥有超过 1 万亿个参数,而Meta Platforms和Mistral等公司发布的较小开源模型则拥有 700 亿参数。

而这将表明,微软愿意在 AI 领域开辟一条独立于 OpenAI 开发的技术的新道路。要知道,OpenAI 目前是微软产品中所有 AI Copilot聊天机器人的基础,可以自动发送电子邮件或快速总结文档。但其中一位知情人士表示,新模型的确切用途尚未确定,这将取决于其性能如何。

因此,新的MAI-1模型将推动微软与谷歌、OpenAI、Anthropic等企业进行竞争。

报道称,为了训练新模型,微软已经预留了大量配备英伟达GPU服务器,并一直在编译训练数据集来改进模型。有知情人士表示,其中一些数据包括从以前用于训练较小模型的各种数据集中提取的数据,如OpenAI GPT-4 创建的文本,以及来自其他来源的数据,如互联网上的公共数据。

因此,我们有望在本月晚些时候微软举行的Build开发者大会上看到这款全新、巨大规模的基础模型。而其竞争对手OpenAI最快将于5月10日发布搜索引擎,对抗微软和谷歌。

受此消息影响,微软股价微涨,截至发稿前,微软(NASDAQ: MSFT)股价涨0.72%。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB