苹果开源OpenELM,大模型开源领域再迎一巨头!

4月24日,苹果开源了大语言模型OpenELM。这与微软刚开源的Phi-3 Mini类似,是一款专门针对手机等移动设备的模型。


OpenELM有指令微调和预训练两种模型,一共有2.7亿、4.5亿、11亿和30亿4种参数,提供生成文本、代码、翻译、总结摘要等功能。虽然最小的参数只有2.7亿,但苹果使用了1.8万亿tokens的数据进行了预训练,这也是其能以小参数表现出超强性能的主要原因之一。

值得一提的是,苹果还把训练OpenELM模型的深度神经网络库CoreNet也开源了,仅1天多的时间Github就超过1100颗星。苹果的MobileOne、CVNets、MobileViT、FastVit等知名研究都是基于CoreNet完成的。

图片来源:由GPTNB生成

开源地址:OpenELM
CoreNet地址:CoreNet
论文地址:ArXiv论文

目前,大模型领域主要分为开源和闭源两大阵营,国内外知名闭源的代表企业有OpenAI、Anthropic、谷歌、Midjourney、Udio、百度、科大讯飞、出门问问、月之暗面等。

开源阵营有Meta、微软、谷歌、百川智能、阿里巴巴、零一万物等。苹果作为手机闭源领域的领导者,本次却罕见地加入开源大模型阵营,可能在效仿谷歌的方式先通过开源拉拢用户,再用闭源产品去实现商业化营利。

不管咋说,苹果选择开源对于开发者、中小企业来说都是一个不错的福利。因为,与以往只提供模型权重和推理代码的做法不同,苹果发布了完整的训练、评估框架等。

OpenELM架构简单介绍
OpenELM采用了无编码器的transformer架构,并在多个方面进行了技术创新。OpenELM的使用了一种“层级缩放”策略,使得模型能够跨各个转换器层更有效地分配参数,能以最少的训练数据取得了更好的性能,同时极大提升准确率。例如, 11亿参数的OpenELM,比12亿参数的OLMo模型的准确率高出2.36%,而使用的预训练数据却只有OLMo的一半。

图片来源

此外,OpenELM不使用任何全连接层中的可学习偏置参数,采用RMSNorm进行预归一化,并使用旋转位置嵌入编码位置信息。OpenELM还通过分组查询注意力代替多头注意力,用SwiGLU FFN替换了传统的前馈网络,并使用了Flash注意力来计算缩放点积注意力,能以更少的资源来进行训练和推理。

训练流程与数据集
在训练流程中,苹果采用了CoreNet作为训练框架,并使用了Adam优化算法进行了35万次迭代训练。苹果使用了批量大小为4096的小批量随机梯度下降进行模型参数更新,并设置了适当的学习率和权重衰减。

图片来源

预训练数据集方面,OpenELM使用了包括RefinedWeb、去重的PILE、RedPajama的子集和Dolma v1.6的子集在内的公共数据集,一共约1.8万亿tokens数据。此外,苹果使用了动态分词和数据过滤的方法,实现了实时过滤和分词,从而简化了实验流程并提高了灵活性。还使用了与Meta的Llama相同的分词器,以确保实验的一致性。

这次苹果真的是很有诚意的开源,一开到底所有内容都贡献出来了,家大业大就是敢玩。这也表明苹果进军大模型领域的决心,以后开源领域更热闹啦~ 。

本文素材来源OpenELM论文,如有侵权请联系删除

END

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

速递|突发!英伟达 10 亿美元收购一家 AI Infra 初创公司,并将继续收购同类标的

根据 TechCrunch 最新消息,英伟达以至多 10 亿美元收购了特拉维夫 AI 初创公司 Run:ai ,这是一家帮助开发者和运营团队管理和优化 AI 硬件基础设施的公司。Run:ai 也将成为英伟达自 2019 年 3 月以 69 亿美元收购 Mellanox 以来最大的一次收购之一。


图片来源:由GPTNB生成

英伟达表示将继续按照相同的商业模式提供 Run:ai 的产品,并将继续投资于 Run:ai 的产品路线图,使其成为英伟达 DGX Cloud AI 平台的一部分。

英伟达的 DGX 服务器、工作站和 DGX Cloud 客户还将获得 Run:ai 的功能,特别是针对在多个数据中心位置运行的生成式 AI 部署。

Run:ai CEO Omri Geller(左一)表示,Run:ai 自 2020 年以来一直与英伟达紧密合作,我们都热衷于帮助客户充分利用他们的基础设施。

据悉,Geller 与 Ronen Dar 几年前一起创立了 Run:ai ,他们在特拉维夫大学与教授  Meir Feder 一起学习,Feder 是 Run:ai 的第三位创始人。他们的目标是打造一个平台,将 AI 模型“分割”成在硬件上并行运行的片段,无论是在本地、公共云还是在边缘。

虽然 Run:AI 的直接竞争对手不多,但其他公司也在将动态硬件分配应用于 AI 工作负载。例如, Grid.ai 提供的软件可以让数据科学家在并行的 GPU 、处理器等设备上训练 AI 模型。

早期阶段, Run:AI 就已经建立了庞大的财富 500 强客户群,从而吸引了风险投资。在被收购之前, Run:ai 从 Insight Partners 、 Tiger Global 、 S Capital 和 TLV Partners 等投资者那里筹集了 1.18 亿美元的资本。

英伟达 DGX Cloud 的副总裁 Alexis Bjorlin 指出,客户的 AI 部署变得越来越复杂,公司对更有效利用 AI 计算资源的需求日益增长。

一家名为 ClearML 的机器学习模型管理公司的近期调查发现, 2024 年到目前为止,规模化 AI 最大的挑战是计算资源的可用性和成本,其次是基础设施问题。

他还表示,管理和协调生成式 AI 、推荐系统、搜索引擎等工作负载需要复杂的调度以优化系统级别的性能和底层基础设施,英伟达的加速计算平台和 Run:ai 的平台将继续支持广泛的第三方解决方案生态系统,为客户提供选择和灵活性。英伟达与 Run:ai 合作,将使客户能够通过单一架构访问任何地方的 GPU 解决方案。

PS:回顾 2023 年至今,大部分 AI 炒作都集中在基础模型的横向能力上,但 AI 的真正机会在于 AI 以及 Agent 如何重新配置与创造 B2B 价值链,112 家顶尖 VC 评选出 2024 年 Top30 科技初创公司,接近 50% GenAI,SaaS 不到 1/4,GGV 管理合伙人:AI 现在被严重高估,但仍处第一轮的上半场,未来依然看好 AI 及 Infra 相关创业机会!

Reference:
https://techcrunch.com/2024/04/24/nvidia-acquires-ai-workload-management-startup-runai/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OneTrust的合作伙伴计划演变推动数据和人工智能创新

新的好处使联盟更容易拓展其能力,推动客户价值,并开拓新的收入机会。图片{ width=60% }


市场领先的信任智能领导者OneTrust今天宣布其合作伙伴计划的演变,突显其加速联盟和客户成功的承诺。演进后的OneTrust合作伙伴计划将使并奖励OneTrust合作伙伴和联盟构建差异化实践并培育与OneTrust解决方案的专业知识。

“合作伙伴和联盟一直是OneTrust增长的关键,与他们合作的同时,我们能够以最适合客户需求的方式为其服务,”OneTrust全球合作伙伴生态系统高级副总裁Shawn Toldo表示。“这就是为什么我们演变我们的计划,使我们的合作伙伴更容易区分并增强其组合,增加其能力,并开拓新的收入机会。随着全球企业启动以人工智能为驱动的转型,他们需要强大的数据隐私、安全和风险解决方案来确保可信赖的创新。通过赋予我们的合作伙伴和联盟建立更深入的服务能力,我们可以帮助我们共同的客户从OneTrust平台中实现更多价值。通过提供新的福利、资源、培训和激励,我们正在加强对整个生态系统的承诺,以便我们可以共同成长和取得成功。”

OneTrust的合作伙伴计划将提供三个层次,包括授权、认证和信任,为合作伙伴和联盟提供在其OneTrust之旅中宝贵的好处。这使全球客户能够轻松识别具有所需独特经验和专业知识的合作伙伴和联盟。通过与OneTrust对齐,他们可以在数据、人工智能和信任领域追求竞争优势,并利用旨在促进协作、促进知识共享和培育增长机会的工具、培训、资源、知识机会、专家和积极的社区。作为该计划的一部分,合作伙伴和联盟可以通过扩展解决方案组合、开拓新的收入机会并获得有价值的好处来区别于其他。

OneTrust合作伙伴计划的增强功能包括:
扩展专业知识的先进培训和认证福利:OneTrust将提供丰富的培训资源和通过合作伙伴门户和认证门户访问的认证。合作伙伴和联盟可以利用这些资源来发展和增长他们的能力,并提升其层级状态。他们还将获得OneTrust专业主题专家(SME)的支持,利用产品专家、服务和支持专业人士以及销售解决方案工程师的专业知识,以增强市场推广效果,简化交付流程,并确保客户成功。合作伙伴和联盟还将获得与OneTrust销售和服务专业人员相同的培训,以帮助提升其服务能力。
加速影响的增强合作伙伴和联盟体验:通过OneTrust合作伙伴门户,合作伙伴和联盟将能够访问培训和支持、交易转介和注册、培训、营销资源、认证、定价和支持。技术合作伙伴将获得合作伙伴租户和沙箱。OneTrust也提供激励措施,如共同营销、培训等,以帮助合作伙伴优化其投资并发现推动增长的新机会。该计划的信任合作伙伴层级的实体将获得独家的OneTrust资源和信任合作伙伴社区,以交流专业知识,共同开展战略倡议,并建立宝贵的联系。
扩大激励措施以实现增长:合作伙伴和联盟还将获得更丰富的转介佣金和交易注册折扣组合,使他们在引入机会时达到他们的全部潜力。
该计划适用于增值再销售商(VAR)、咨询合作伙伴、联盟和系统集成商、托管服务提供商(MSP)以及技术合作伙伴和独立软件供应商(ISV)。

Eric Bowlin,合作伙伴,风险与财务咨询,德勤Touche LLP“OneTrust和Deloitte建立了一支强大、长期的联盟,致力于支持信任、数据和负责任的人工智能管理的不断发展。我们的联盟现在可以向我们共同的客户提供这些程序增强和其他解决方案,帮助他们通过人工智能和信任改变他们的业务。”Lindsay Hohler,首席,网络安全和隐私,Grant Thornton LLP“Grant Thornton和OneTrust已经在帮助共同客户加强数据隐私、同意和偏好管理以及治理、风险和合规项目方面有着成熟的合作记录。随着 AI 快速被组织采用,OneTrust提供的增强资源和认证可以帮助我们为客户提供更全面和创新的解决方案,以降低风险并为他们的业务创造价值。”Dennis Tougas,首席隐私和监管官(CPRO),Kyndryl“Kyndryl的深厚专业知识和服务,以及我们与OneTrust的合作,让企业能够将数据隐私流程可操作化并满足合规要求。我们致力于帮助我们的客户在复杂环境中保护个人信息,同时管理大量的监管义务。通过对他们的合作伙伴计划进行战略性演进,OneTrust正在强调其对合作伙伴和客户成功的承诺。”

了解更多关于OneTrust合作伙伴计划的信息。该计划将从2024年8月开始推出,合作伙伴今天可以开始使用OneTrust。有关OneTrust合作伙伴计划的更多信息,请访问www.onetrust.com/partners/参加我们即将举行的网络研讨会以深入了解:NAMER、EMEA注册参加2024年5月20-22日在德克萨斯州奥斯汀举行的TrustWeek 2024,了解行业特定会话、参加实践课程和深入了解OneTrust的最新创新:www.onetrust.com/trustweek/

探索AITechPark,了解人工智能、物联网、网络安全、AITech新闻和行业专家的见解!。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

WSO2揭示最新的API管理和集成产品

开发者现在可以使用相同的控制平面来管理WSO2 API管理器和WSO2 API平台(适用于Kubernetes)的数据平面,在VS Code中使用Micro Integrator for VS Code开发集成,并利用AI助手来简化工作。图片{ width=60% }


软件开发人员面临着越来越多的需求,要更快地交付创新的数字体验,但这些体验通常基于一个复杂的数据、流程、服务和API网,需要将它们编织在一起。WSO2正在帮助开发人员简化工作并提高生产力,引入了WSO2 API Manager、WSO2 API平台(适用于Kubernetes)和WSO2 Micro Integrator的新功能。

今天的进步包括:

  • 一个统一的控制平面管理WSO2 API Manager和WSO2 APK的数据平面,为Kubernetes环境带来强大的API管理。
  • WSO2 API Manager控制平面中的基于人工智能(AI)的新功能WSO2 AI Developer Assistant,增强了开发人员门户的搜索功能,增加了自然语言API测试功能。
  • WSO2 APK中的GraphQL支持提供了精确的数据访问功能,以实现更高效的数据检索。
  • 适用于Microsoft Visual Studio Code(VS Code)的新的WSO2 Micro Integrator扩展提供了一个直观的图形界面,配备AI MI Copilot,简化了使用自然语言提示开发集成。

“在加快创新的过程中,软件开发团队已经接受了可组合应用程序和微服务,但他们也需要从支持的API管理和集成技术中得到更大的便捷和效率。”WSO2副总裁兼API与集成软件业务部总经理Christopher Davey表示,“通过我们的新基于人工智能助手、WSO2 API Manager和WSO2 APK的统一控制平面,以及面向VS Code的WSO2 Micro Integrator扩展,我们通过提供更具用户友好性、高效性和未来性的环境来增强这些开发人员的体验,与他们不断发展的需求保持一致。”

更强大、更简化的API管理
WSO2推出了两款开源软件产品,以满足全球组织的多样化API管理需求。WSO2 API Manager是WSO2全面的、业内领先的全生命周期API管理平台,每年在全球执行超过60万亿次交易。WSO2 APK于2023年9月推出,从头开始设计,利用Kubernetes的固有优势,同时优化API管理实践和工作流程。最新的产品发布让软件开发团队可以在Kubernetes环境中利用WSO2 API Manager强大的API管理控制平面功能以及WSO2 APK高效、云优化的数据平面的优势。

统一的控制平面。新版的WSO2 API Manager和WSO2 APK今天正式推出,可以配置为使两款产品的数据平面由WSO2 API Manager控制平面管理。现在在WSO2 APK网关上运行的API可以受益于WSO2 API Manager用户界面(UI)和开发者门户/市场中建立的管理功能。具体来说:

  • 软件开发人员使用容器本机平台和强大的API管理,获得了简化的开发流程。
  • API架构师可以使用统一平台设计全面的API策略。
  • API业务所有者可以高效地以可扩展和具有成本效益的方式部署大量API。

WSO2 AI开发者助手。通过控制平面,WSO2 API Manager和WSO2 APK的用户还可以获得一个利用自然语言驱动的聊天的智能助手的Beta版本,增强开发人员的生产力。WSO2 AI Developer Assistant目前包括:

  • 基于AI的开发者门户搜索:开发人员可以简单描述他们需要做什么,快速获得关于最相关API的建议。
  • 基于AI的API测试:开发者可以通过自动生成的测试样本、关于有效测试路径的建议以及指向特定场景测试最相关API资源的提示,提高API测试速度、效率和准确性。

WSO2 APK的GraphQL支持。最新的WSO2 APK版本支持GraphQL查询语言,使开发人员和API使用者可以请求他们需要的具体数据。结果是简化的开发、提高的代码可维护性、更高的效率和更大的灵活性。

更容易的集成开发
WSO2 Micro Integrator是一个全面的开源集成产品,通过低代码图形化设计体验简化了应用程序、服务、数据和云之间的连接,同时提供支持微服务和企业服务总线(ESB)风格部署的灵活性。

为了为WSO2 Micro Integrator提供现代、直观和高效的开发环境,WSO2推出了面向VS Code的WSO2 Micro Integrator扩展,将于2024年5月7日WSO2Con的首日作为开发者预览提供。该扩展允许开发人员利用流行的、用户友好的VS Code编辑器,并与云平台无缝集成,以与云服务和API进行交互。

该扩展还配备了MI Copilot,用于AI辅助开发。MI Copilot允许开发人员用自然语言描述其集成问题,并使MI Copilot自动生成所需的配置。这显著减少了设置时间,简化了开发流程,并使开发人员更快地实现生产力。

可用性和支持
WSO2 API Manager 4.3和WSO2 APK 1.1今天正式推出,作为根据Apache许可证2.0发布的开源产品。它们由WSO2订阅支持,包括WSO2 Update,用于持续提供错误修复、安全更新和性能增强,以及24x7支持的WSO2 Support。统一定价意味着客户只需购买WSO2订阅,并根据其偏好选择托管模式(云、本地或混合)。有关WSO2订阅的详细信息,请访问https://wso2.com/subscription;有关WSO2咨询服务的信息,请访问https://wso2.com/consulting。WSO2 Micro Integrator for VS Code扩展将于2024年5月7日作为开发者预览上线。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Snowflake推出Arctic:最开放、企业级LLM

Snowflake(NYSE:SNOW),数据云公司,今天宣布推出Snowflake Arctic,这是一款最开放、企业级LLM,采用独特的专家混合(MoE)架构,Arctic在规模上交付了一流的智能效率。图片{ width=60% }


它针对复杂的企业工作负载进行了优化,在SQL代码生成、指令跟踪等方面超越了几个行业基准。此外,Snowflake发布了Arctic的权重,采用Apache 2.0许可证,并公布了培训过程的细节,为企业AI技术设立了新的开放标准。Snowflake Arctic LLM是Snowflake Arctic模型系列的一部分,这是由Snowflake构建的一系列模型,还包括用于检索用例的最佳文本嵌入模型。

“这是Snowflake的一个转折点,我们的人工智能研究团队正在AI的前沿进行创新,”Snowflake首席执行官Sridhar Ramaswamy表示。“通过以真正开放的方式向AI社区交付业界领先的智能和效率,我们正在推动开源AI的边界。我们对Arctic的研究将极大增强我们传递可靠高效的AI能力给客户的能力。”

Arctic以真正开放、广泛可用的协作闯入
根据Forrester最近的一份报告,约46%的全球企业AI决策者表示,他们正在利用现有的开源LLM作为组织AI战略的一部分采用生成式AI。在全球范围内有超过9400家公司和组织使用Snowflake作为数据基础,它使所有用户都能够利用具备行业领先的开源LLM,同时还为他们提供了灵活性和可选择性,可以使用什么模型。

如今,随着Arctic的推出,Snowflake正在推出一款功能强大的真正开放模型,采用Apache 2.0许可证,允许无门槛的个人、研究和商业使用。更进一步,Snowflake还提供了代码模板,以及灵活的推理和训练选项,使用户可以快速开始使用并定制Arctic,使用他们喜欢的框架。这将包括NVIDIA NIM和NVIDIA TensorRT-LLM、vLLM和Hugging Face。用于即时使用,Arctic可在Snowflake Cortex中进行服务器端推理,Snowflake Cortex是Snowflake的完全托管服务,提供数据云中的机器学习和AI解决方案。它还将在Amazon Web Services(AWS)上提供,同时还包括其他模型花园和目录,其中包括Hugging Face、Lamini、Microsoft Azure、NVIDIA API目录、Perplexity、Together AI等。

Arctic以领先的资源效率提供一流的智能
Snowflake的人工智能研究团队,包括行业领先的研究人员和系统工程师,花费的训练成本仅为类似模型的八分之一,用时不到三个月,构建了Arctic。Snowflake采用Amazon Elastic Compute Cloud (Amazon EC2) P5实例进行训练,为构建最先进的开放企业级模型设定了新的基准,最终使用户能够以成本效益的方式在规模上创建自定义模型。

作为这一战略努力的一部分,Arctic的独特MoE设计改进了训练系统和模型性能,通过精心设计的数据构成,聚焦于企业需求。Arctic还提供高质量的结果,在一次激活了4800亿参数中的17个,以实现业界领先的质量和空前的标记效率。在效率突破方面,Arctic在推理或训练中激活的参数数量大约比DBRX少50%,比Llama 3 70B少75%。此外,它在编码(HumanEval+、MBPP+)和SQL生成(Spider)等方面超越了领先的开源模型,同时在一般语言理解(MMLU)方面提供领先性能。

Snowflake继续为所有用户加速AI创新
Snowflake继续为企业提供所需的数据基础和尖端AI构建块,以利用其企业数据创建强大的AI和机器学习应用。在Snowflake Cortex中访问Arctic将加速客户能够在数据云的安全和治理边界内规模化构建生产级AI应用的能力。

除了Arctic LLM外,Snowflake Arctic模型系列还包括最近宣布的Arctic embed,这是一系列最先进的文本嵌入模型,可在Apache 2.0许可证下向开源社区提供。这五个模型可在Hugging Face上立即使用,并将很快作为Snowflake Cortex embed功能的一部分(私人预览)提供。这些嵌入模型经过优化,以在与LLM相结合的检索增强生成或语义搜索服务中提供领先的检索性能,成本约为可比模型的三分之一。

Snowflake还优先为客户提供数据云中最新和最强大的LLM,包括最近新增的Reka和Mistral AI的模型。此外,Snowflake最近宣布与NVIDIA扩展伙伴关系,继续其人工智能创新,将全套NVIDIA加速平台与Snowflake的数据云结合起来,提供安全和强大的基础设施和计算能力的组合,以释放AI生产力。Snowflake Ventures最近还投资了Landing AI、Mistral AI、Reka等公司,以进一步致力于帮助客户通过LLM和AI从其企业数据中创造价值。

来自AI专家对此新闻的评论
“Snowflake Arctic将推动我们的战略合作伙伴关系取得显著成果,为所有人带来AI访问、民主化和创新。”AI21 Labs联合创始人兼联合首席执行官Yoav Shoham表示。“我们很高兴看到Snowflake帮助企业发挥开源模型的力量,就像我们最近发布的Jamba (第一款基于 Mamba 的 Transformer-SSM 生产级模型)。Snowflake不断增加的AI投资是我们选择在数据云上构建的重要原因,我们期待继续为我们的共同客户创造更大的价值。”

“Snowflake和AWS都相信生成式AI将改变我们所知道的几乎每个客户体验。”AWS计算与网络副总裁David Brown表示。“与AWS合作,Snowflake能够自定义其基础架构,加速将Snowflake Arctic的训练时间缩短。使用Amazon EC2 P5实例与Snowflake高效的训练系统和模型架构共同设计,Snowflake能够快速开发和交付新的企业级模型给客户。并计划在AWS上提供Snowflake Arctic后,客户将更多选择权,利用强大的AI技术加速他们的变革。”

“随着AI的前进步伐加快,Snowflake推出Snowflake Arctic将其确立为AI创新者,”Coda联合创始人兼首席执行官Shishir Mehrotra表示。“我们的创新和设计原则与Snowflake的前瞻性AI思路一致,我们很高兴成为这段通过AI转变日常应用程序和工作流程的旅程的合作伙伴。”

“在过去几个月中,开源AI呈现了一股巨大的浪潮,”Hugging Face首席执行官兼联合创始人Clement Delangue表示。“我们很高兴看到Snowflake做出重大贡献,不仅通过Apache 2.0许可证发布模型,还提供了其培训细节。这为企业构建AI以及整个领域开拓新领域提供了必要的透明度和控制。”

“Lamini的愿景是民主化AI,让每个人都能构建自己的超级智能。我们认为企业AI的未来是在强大的开源模型和开放协作基础上构建,”Lamini联合创始人兼首席执行官Sharon Zhou表示。“Snowflake Arctic对支持AI未来至关重要。我们很高兴为高精度LLM调整和定制Arctic,优化控制、安全性和适应动态AI生态系统的弹性。”

“社区贡献对解锁AI创新、为每个人创造价值至关重要,”Landing AI首席执行官Andrew Ng表示。“Snowflake的Arctic开源发布对于让尖端模型开放给每个人以进行微调、评估和创新是一个激动人心的步骤。”

“通过将Snowflake的新LLM模型 Arctic 引入Microsoft Azure AI模型目录,我们很高兴为不断发展的AI景观增加企业客户选择,”Microsoft Azure AI平台公司副总裁Eric Boyd表示。“我们与Snowflake的合作是我们扩展开放创新且扩大AI可能性边界的承诺的一个例子。”

“在过去几个月里,开源AI模型的持续推进和健康竞争对于 Perplexity 的成功以及为所有人民主化生成式AI的未来至关重要,”Perplexity联合创始人兼首席执行官Aravind Srinivas表示。“我们期待使用Snowflake Arctic进行试验,定制之后为我们的产品,最终为我们的最终用户创造更大的价值。”

“Snowflake和Reka致力于让每个用户获得AI,无论他们的技术专长如何,以更快地推动业务结果,”Reka联合创始人兼首席执行官Dani Yogatama表示。“通过Snowflake Arctic的推出,Snowflake正在实现这一愿景,将一流的真正开放的大语言模型提供给用户。”

“作为开源AI研究、模型和数据集的前沿组织,我们很高兴见证Snowflake Arctic的推出,”Together AI联合创始人兼首席执行官Vipul Ved Prakash表示。“开源AI领域的进步将使整个生态系统受益,并为全球的开发人员和研究人员提供部署具有影响力的生成式AI模型的能力。”

了解更多:
注册参加2024年6月3-6日在旧金山举办的Snowflake数据云峰会,了解Snowflake的AI公告,并查看2024年6月6日的Snowflake Dev Day,以了解这些创新技术的运作方式。用户可以直接转到Hugging Face下载Snowflake Arctic,并在Snowflake的Github仓库中获取推理和微调的配方。在Snowflake Arctic上获取更多信息和其他资源,请点击此处。深入了解Snowflake AI研究团队如何培训Snowflake Arctic,阅读此博客。观看组织如何将生成式AI和LLM带入其企业数据的视频。在LinkedIn和Twitter上及时获取来自Snowflake的最新消息和公告。

  1. 《生成式AI的现状》,Forrester研究公司,2024年1月26日。2 截至2024年1月31日。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Critical Start将推出OT的Critical Start MDR服务

Today, Critical Start, a leading provider of Managed Detection and Response (MDR) cybersecurity solutions and pioneer of Managed Cyber Risk Reduction (MCRR), announced the upcoming availability of Critical Start Managed Detection and Response (MDR) services for Operational Technology (OT).图片{ width=60% }


A critical area of risk for industrial organizations, OT is another component of Critical Start’s Managed Cyber Risk Reduction strategy. MCRR combines threat, vulnerability, and risk monitoring and management so organizations can have a strategic, data-driven, risk-based approach to their security program.
Critical Start MDR for OT is a comprehensive and flexible service that combines OT-specific threat detection capabilities with the ability to leverage a customer’s existing infrastructure and tools by ingesting security-relevant logs to address the unique challenges faced by industrial organizations. Dedicated OT security tools like Dragos, Claroty, Nozomi, etc. are supported but not a prerequisite for this service.
With threat actors constantly upping their tactics against industrial organizations, cyber incidents against these organizations and their OT environments have become increasingly common. As a result, there is a growing necessity for comprehensive security monitoring and threat detection solutions that provide increased visibility into these environments. Unfortunately, many organizations lack the resources, tools, and personnel to effectively monitor and detect threats within their OT environments and industrial operations around the clock.
Critical Start MDR for OT aims to address these challenges by providing predictable, flat-rate pricing for 24x7x365 threat monitoring, detection, and response, enabling industrial organizations to reduce financial and operational risks targeting their environments, whether through unintended operational changes, cyberattacks against OT systems directly, or attacks originating from the IT network that impact the OT environment. Environment-specific rules of engagement define what level and type of response is performed by Critical Start Risk & Security Operations Center (RSOC) personnel to further ensure the integrity of industrial operations.
Additionally, the Critical Start Cyber Operations Risk & Response™ platform will provide visibility and threat detection across both IT and OT environments, reducing the burden on internal teams by addressing the growing complexity of managing and securing IT/OT environments.
“It’s become increasingly apparent that industrial firms and their OT environments are not only extremely susceptible to cyber-attacks but are also under resourced for continuous monitoring of their growing cyber risks. Until now, those providers of OT monitoring services are either single technology-focused and often do not provide monitoring for the IT environment as well,” said Chris Carlson, Chief Product Officer at Critical Start. “By developing Critical Start MDR for OT, the company is not only highlighting the disruptive nature of our delivery platform but also our dedication to meeting the evolving demands of our customers.”
Additional benefits of Critical Start MDR for OT include:

  • Immediate visibility and risk reduction – enabling organizations with or without dedicated OT security tools to gain visibility and reduce risk quickly and at a reasonable cost to start and accelerate their OT security journey
  • Scalable and adaptable solution that grows with the organization’s OT security needs – future-proofing an organization’s MDR investment by allowing them to add monitoring support for dedicated OT security tools if and when they are added in the future
  • End-to-end visibility for IT/OT convergence – by offering both MDR for OT and IT, Critical Start offers unique, end-to-end visibility, providing enhanced visibility and threat detection for IT/OT convergence in a single platform
  • Tailored rules of engagement and product integrations – the platform defines separate Rules of Engagement and product integrations for IT and OT environments, ensuring that customers can trust Critical Start not to take response actions that could negatively impact their operational environments, such as isolating a host, without proper authorization and validation
  • Overcoming barriers to OT security monitoring – Critical Start MDR for OT helps organizations overcome these barriers by providing a cost-effective, flexible solution that can be implemented quickly and scaled over time. This allows them to improve their OT security posture without significant upfront investments.

For more information on Critical Start MDR for OT, visit: https://www.criticalstart.com/our-solutions/managed-detection-response-services/operational-technology/, or stop by Booth #449 South at RSAC for more details and a demo.

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Spin.AI与Perception Point合作,为客户降低浏览器扩展风险

Integration of Spin.AI’s Browser Extension Risk Assessment technology allows Perception Point customers to quickly assess risks of extensions across Google Chrome and Microsoft Edge. Spin.AI,一家专注于保护企业免受安全风险的领先SaaS安全公司,今日宣布与Perception Point展开合作,将Spin.AI的浏览器扩展风险评估技术整合到Perception Point高级浏览器安全解决方案中。图片{ width=60% }


这一互补功能为管理员提供了在Perception Point解决方案中检测到的浏览器扩展提供了前所未有的洞见,使SecOps团队能够更有效地识别和减轻他们的浏览器和SaaS数据面临的商业和安全威胁。

当前的市场动态显示,组织在监视与第三方浏览器扩展和应用程序相关风险上面临挑战。Spin.AI的一项调查表明,75%的SaaS应用对企业构成高或中等风险。

“浏览器是企业中使用最多的应用程序,也是攻击者不断瞄准的目标,他们利用恶意网站和扩展程序来入侵组织,” Perception Point的CTO Tal Zamir表示。”随着用户越来越多地采用从广告拦截程序到应用增强程序等各种浏览器扩展,以提高其工作效率,安全风险也在不断增加。恶意扩展可能会窃取密码,跟踪用户的在线活动,并将恶意代码注入合法网站中。此外,即使是合法扩展也可能引入安全漏洞或要求与组织政策冲突的权限。安全团队必须加强其网络浏览器安全,并具有对扩展使用的可见性和控制,以维护安全标准。”

“从未打补丁的漏洞到不符合规定,以及请求敏感范围的权限,多种因素可能使扩展的风险概况升级,” Spin.AI的产品副总裁Davit Asatryan称。”由于大多数实体依赖于偶发的手动风险评估,这些扩展产生的安全风险正在扩大。这一合作旨在通过使用Perception Point高级浏览器安全来减轻与浏览器扩展相关的风险,从而确保企业对托管和未托管设备上的浏览进行安全保护的管理员和SecOps团队。”

Perception Point的高级浏览器安全集成了基于人工智能的网络钓鱼和恶意软件检测、数据丢失预防措施以及浏览器治理和可见性。该解决方案结合了Perception Point的专利多层检测技术,以检测和防止最复杂的网络和基于浏览器的威胁,并提供全包含的管理的24X7事件响应服务,以减少SOC团队资源的消耗。

Spin.AI的风险评估工具使用机器学习来收集和分析数据,评估与每个扩展相关的风险。通过审查与业务、安全和合规性关切相关的15多个属性,风险评估工具为每个公开可用扩展生成综合报告,分配出100分的评级。由自动风险评估过程得出的综合风险评分涵盖了重要元素,包括权限范围、漏洞、外部通信、业务操作风险、安全风险和合规性风险。

寻求深入评估的管理员可以轻松选择任何扩展,以在Spin.AI平台内查看其风险分析,确保对相关风险有详细了解。

通过单击此处 了解更多有关Spin.AI平台的信息 或通过此处安排演示。

了解有关Perception Point高级浏览器安全的更多信息,请单击此处 并通过此处安排演示。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

联想推动混合AI创新以满足繁重工作负载需求

Delivering Solutions and Services for Extreme Performance and Improved Business Outcomes

联想集团(HKSE:992)(ADR:LNVGY)今日宣布推出一套全面的全新定制AI中心基础架构系统和解决方案,以推进从边缘到云的混合AI创新。图片{ width=60% }


联想提供了GPU丰富且热效率高的解决方案,旨在处理各种环境和行业中的计算密集工作负载。在金融服务和医疗保健等行业,客户正在处理需要极高I/O带宽的大规模数据集,而联想提供了管理关键数据所必需的IT基础设施解决方案。在所有这些解决方案中,Lenovo TruScale提供了终极的灵活性、规模和支持,使客户可以完全将需要的AI工作负载作为服务上线。不管客户在其AI之旅中处于何种阶段,联想专业服务正简化AI体验,以帮助客户应对企业今天面临的新需求和机遇。

“联想正在加快从数据中获取洞察力的步伐,通过提供面向各行业的新AI解决方案,显著积极地影响我们客户的日常运营,”联想ISG总裁Kirk Skaugen表示。“无论是促进金融服务能力、升级零售体验,还是提高我们城市的效率,我们的混合方法使企业能够拥有AI就绪和针对AI优化的基础设施,将AI从概念变为现实,推动创新、数字化和生产率。”

加速最具计算要求的AI工作负载

联想与AMD合作推出了ThinkSystem SR685a V3 8GPU服务器,为客户提供了处理最具计算要求的AI工作负载(包括GenAI和大型语言模型LLM)的极致性能。这种强大的解决方案提供了快速加速、大内存和I/O带宽,以处理庞大数据集,这对金融服务、医疗保健、能源、气候科学和交通运输等行业的进展至关重要。新的ThinkSystem SR685a V3既适用于企业私有本地AI,也适用于公共AI云服务提供商。

在金融服务领域,ThinkSystem SR685a V3旨在帮助进行欺诈检测和预防以及KYC(了解您的客户)倡议。该系统还非常适用于支持算法交易策略、风险管理(实时交易监控和风险价值)、信贷发放(贷款分析和批准建议)、财富管理和咨询服务、简化和增强监管合规性,以及预测等应用。新系统的主要特点包括:
使用领先的第四代AMD EPYC™处理器和8个全新AMD Instinct™ MI300X GPU加速强大的计算。通过AMD Infinity Fabric™完全互连,提供1.5TB高带宽(HBM3)内存容量和高达1TB/s的GPU理论峰值聚合I/O带宽性能以及训练和部署AI模型所需的速度。通过空气冷却获得充分的热容量,联想SR685a V3可以维持高功率CPU和GPU的最大性能。支持NVIDIA最新HGXTM(H100/H200/B100)GPU以及下一代AMD CPU的插拔支持,具有终极灵活性。

“与联想一起,我们正在多种方式加速企业的AI转型–帮助指导客户完成这一重大的计算转变,同时规模化提供强大的端到端解决方案,”AMD数据中心解决方案集团执行副总裁兼总经理Forrest Norrod表示。“我们共同向市场推出了令人惊叹的解决方案,期待将AMD Instinct MI300X加入联想的产品组合,帮助企业迅速采用AI。”

市场上性能最强大的Azure Stack HCI服务器之一

联想推出了新的搭载AMD EPYCTM 8004处理器的Lenovo ThinkAgile MX455 V3 Edge Premier解决方案,为边缘带来了AI推理和实时数据分析。这款多功能AI优化平台在边缘提供了新的AI、计算和存储性能水平,具有任何Azure Stack HCI解决方案中最佳的能效。配备关键功能的ThinkAgile MX455 V3 Edge Premier解决方案,可方便地与本地和Azure云进行无缝集成,使客户能够通过独特的生命周期管理降低TCO,获得增强的客户体验,并能够更快地采用软件创新。ThinkAgile MX455 V3 Edge Premier解决方案,适用于零售、制造和医疗保健领域,含以下主要功能:
通过自动化、几乎零触点配置和独特的联想Open Cloud Automation (LOC-A)功能降低管理开销,可通过Azure Arc启用的体系结构在云中任何地方部署并进行管理,实现更快速的部署。可通过单一联系人支持和集中式、基于云的舰队管理节约维护时间和成本。通过连续测试和自动软件更新、经过Microsoft和联想验证的方式提高安全性、可靠性,并减少停机时间。

“我们每天从客户那里听到,他们需要将微软Azure的强大功能扩展到各种真实环境 – 包括制造车间和零售空间、快餐店等分布式地点。我们与联想的合作使我们能够将两者结合灵活地提供Azure到这些关键的边缘站点,同时简化部署和生命周期管理,”Azure Edge + Platform公司副总裁道格拉斯·菲利普斯表示。“ThinkAgile MX455 V3 Edge Premier解决方案使我们共同的客户能够在云和边缘之间实现无缝协作,无论其数据位于何处。这种新解决方案和我们适应性云方法的强大性能使企业能够统一团队、简化运营,并利用云原生和AI技术的威力,从而专注于转型业务而非管理基础设施。”

解决计算密集工作负载难题

联想和AMD推出了一个多节点、高性能、热效率高的服务器,旨在最大化每个机架的性能用于处理繁重事务处理。联想ThinkSystem SD535 V3是一款由单个第四代AMD EPYC处理器驱动的1S/1U半宽服务器节点,针对云计算和规模化虚拟化、大数据分析、高性能计算以及各种规模企业的实时电子商务交易等工作负载进行了最大程度的处理能力和热效率优化。关键功能包括:
在2U 4节点配置中全面支持CPU技术供应商 – 使客户能够根据AMD或英特尔架构优化工作负载。灵活配置,支持在一个机架内安装2、3或4个节点。通过联想XClarity系统管理软件简化大规模自动化、编排和部署。统一的电源和冷却实现,使功耗比标准1U机架服务器降低30%。

通过专业服务简化AI体验

为了赋予企业更多力量并加速AI采用成功,联想推出了即时提供的联想AI咨询和专业服务,提供了各种服务、解决方案和平台,旨在帮助各种规模的企业在AI领域航行,快速、成本效益地将AI投入组织运作,并实现规模化,将AI从概念转化为现实。该实践可分解为五个步骤:
AI Discover: 联想定制AI Discover参与活动,帮助客户可视化和规划他们的AI采用战略和资源。联想的专家通过已验证的方法评估组织在安全性、人员、技术和流程方面的AI准备度,并根据推荐将客户置于AI成功之路。AI Advisory: 联想的专家根据客户的战略和目标,为AI建议最有效的安全策略、变革管理计划、技术架构和采用计划。联想协助定义了任何规模的AI的预期结果,从口袋到云,共同制定了到达目标的路线图。AI Fast Start: 联想的专家设计和构建关键的AI元素,以展示如何实现那些重要的客户结果,无论是业务、运营还是技术结果。这可能采用概念证明或MVP(最小可行产品)的形式,在联想或客户实验室中进行。AI Deploy and Scale: 联想部署工具和框架,实现一个完全安全和可扩展的AI系统或机群。客户可选择通过联想TruScale作为服务进行部署,这进一步降低了前期成本,帮助轻松部署GenAI并轻松扩展。AI Managed: 联想提供专业指导,以维护、管理和优化AI系统。联想与客户合作支持其终身IT部署,并持续培育和验证一系列AI创新者生态系统,以便随着AI的成熟度增长AI用例。

通过联想AI咨询和专业服务,客户可以利用经验证的专家团队的支持来减轻AI实施的复杂性,并迅速看到实实在在的业务成果。通过端到端服务、硬件和AI应用程序的组合,联想鼓励客户在其AI旅程的每个阶段取得成功。通过简化AI的推出,我们使组织能够访问各种规模的AI,并在所有行业中实现转型性智慧。

更多信息,请访问:https://www.lenovo.com/us/en/servers-storage/alliance/amd/

探索AITechPark,了解AI、物联网、网络安全、AITech新闻以及行业专家的见解更新!。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

奥睿创新领跑IAOP 2024全球外包100强榜单

奥睿创新在四个重要评审类别中获得荣誉
奥睿创新(Orion Innovation),一家领先的数字化转型和产品开发服务公司,今天宣布,该公司已被国际外包专业协会(IAOP®)评选为2024全球外包100强榜单领军企业。图片{ width=60% }


这是该公司连续第八年第十五次入选该榜单。
IAOP®全球外包100强榜单是一项备受尊重的认可,表彰了全球顶尖外包公司在卓越、创新和持续改进方面的承诺。奥睿创新在四个重要的评审类别中获得了最高荣誉:持续卓越、客户评价、奖项和认证以及创新项目。
“我们为再次因在IT服务和产品开发外包方面的卓越表现而受到认可而深感自豪,”奥睿创新欧洲区总裁Alex Bogachek表示。“连续第八次入选全球外包100强榜单证明了我们在为全球客户开发尖端和变革性解决方案方面持续卓越的表现。”
“我们的快速响应能力和规模效应,结合我们独特的地理分布和深厚的领域专业知识,对我们持续取得成功和将我们区别为业界领导者至关重要,”奥睿创新CEO Raj Patil表示。“我为我们的6400名全球员工感到非常自豪,他们的深厚领域知识、体验设计专长和先进工程能力帮助我们推进客户的业务目标。”
IAOP®全球外包100强榜单是帮助公司识别并与全球顶尖外包提供商合作的宝贵资源。奥睿创新持续入选该榜单展示了该公司提供高质量服务和专业知识的能力,以帮助客户实现其业务目标。
“在这一年的数字化颠覆中,2024全球外包100强榜单突显了服务提供商和顾问的显著成功和适应能力。今年的榜单庆祝那些不仅取得成功而且在这个新时代创新、超越并树立了新的行业标准的组织,”IAOP CEO Debi Hamill表示。“我们衷心祝贺奥睿创新在全球精英之列获得当之无愧的地位。”
有关‘2024全球外包100强榜单’的更多信息,请访问IAOP网站www.iaop.org。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

总市值近45亿港币,AIGC第一股出门问问流血上市!首日破发开跌超21%

来源:AI前线
整理 | 凌敏、冬梅

出门问问成功上市成 AIGC 第一股

刚刚,AI 公司出门问问正式在港股上市,报 2.98 港元,总市值约 44.45 亿港元。据悉,出门问问首次发行约 8457 万股股份,每股定价 3.8 港元。


月初时,据报道,出门问问已通过港交所上市审批,并拿到证监会 IPO 备案,并表示将于今年上市,而距离通过审批刚刚过去了半个多月,如今出门问问已经成功登陆港股。

出门问问是一家以生成式 AI 与语音交互技术为核心业务的 AI 公司。据灼识咨询行业报告,出门问问是亚洲为数不多的具有建立通用大模型能力的 AI 公司。按 2022 年 AIGC 解决方案收入计,出门问问是中国起步最早、营收最高的专注于 AIGC 技术的 AI 公司之一。

图片来源:由GPTNB生成

招股书显示,出门问问 2021 年、2022 年、2023 年营收分别为 3.98 亿元、5 亿元、5.07 亿元。

图片来源:由GPTNB生成

公开信息显示,成立至今,出门问问共完成七轮融资,累计融资超 2.55 亿美元,投资方包括红杉资本、真格基金、SIG 海纳亚洲、Google、圆美光电、歌尔声学等。据招股书披露,出门问问 2013 年 2 月的投后估值为 510 万美元,2019 年 9 月的的投后估值为 7.57 亿美元,六年估值翻了 147 倍。

上市后就高枕无忧了?

出门问问长期专注于生成式 AI 与语音交互技术的研发,并在行业发展初期就已经凭借先发优势占据了大片市场。然而,虽然在技术上取得了不少成就,但 AIGC 赛道上的竞争也充满了腥风血雨。

在面对如此激励的竞争环境时,如何持续保持住技术上的优势、加速技术在现实应用场景中的落地并实现盈利,成为了出门问问上市之后无法回避的“大考”。

之前,资深产业经济观察家梁振鹏在接受集微网采访时表示,国内 AI 企业在研发、人才等领域需巨额资本的投入,方能在规模业务和效应上实现提升,因此需要各大金融机构倾力注资来支撑 AI 公司的可持续发展。所以,初期国内 AI 企业还是较看重规模发展,而轻公司业绩、利润,导致亏损成了常态。

可见,上市后并非此后就高枕无忧了,而只是万里征程的刚开始。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB