Gcore发布AI应用程序,为终端用户提供无缝性能
新的AI解决方案实现了全球范围内经过训练的机器学习模型的快速、安全和具有成本效益的部署,在边缘
今天,全球边缘人工智能、云计算、网络和安全解决方案提供商Gcore宣布推出Gcore Inference at the Edge,这是一项突破性解决方案,为AI应用程序提供超低延迟体验。{ width=60% }
这一创新解决方案实现了在边缘推断节点上分布式部署经过预训练的机器学习(ML)模型,确保无缝、实时的推断。
Gcore Inference at the Edge能够为涵盖汽车、制造业、零售业和技术等各行业的企业提供成本效益高、可扩展和安全的AI模型部署。如生成式AI、物体识别、实时行为分析、虚拟助手和生产监测等用例现在可以在全球范围内迅速实现。
Gcore Inference at the Edge在Gcore庞大的全球网络中运行,包括180多个边缘节点,所有这些节点均通过Gcore先进的低延迟智能路由技术相互连接。每个高性能节点位于Gcore网络的边缘,服务器与最终用户距离较近。推断在边缘上使用了NVIDIA L40S GPU,这是市场领先的专为AI推断而设计的芯片。当用户发送请求时,边缘节点确定到达具有最低延迟的最近可用推断区域的路由,实现典型响应时间低于30毫秒。
新解决方案支持各种基本的ML和自定义模型。Gcore ML Model Hub中提供的开源基础模型包括LLaMA Pro 8B、Mistral 7B和Stable-Diffusion XL。可以选择并进行训练以适应任何用例,然后将其全球分发到Gcore Inference at the Edge节点。这解决了开发团队面临的一个重大挑战,即AI模型通常在训练它们的同一服务器上运行,导致性能不佳。
Gcore Inference at the Edge的优势包括:
- 成本效益的部署:灵活的定价结构确保客户只为他们使用的资源付费。
- 内置DDoS防护:通过Gcore的基础设施,ML端点会自动受到DDoS攻击保护。
- 出色的数据隐私和安全性:该解决方案具有内置的符合GDPR、PCI DSS和ISO/IEC 27001标准的合规性。
- 模型自动缩放:可提供自动缩放以处理负载波动,因此模型始终准备好支持高峰需求和意外激增。
- 无限对象存储:可扩展的S3兼容云存储,随着模型需求的演进而增长。
Gcore的CEO安德烈·赖滕巴赫(Andre Reitenbach)评论道:“Gcore Inference at the Edge使客户能够专注于训练他们的机器学习模型,而无需担心部署全球AI应用程序所需的成本、技能和基础设施。在Gcore,我们相信边缘是实现最佳性能和最终用户体验的地方,这就是为什么我们不断创新,以确保每个客户都获得无与伦比的规模和性能。Gcore Inference at the Edge提供了所有强大功能,却没有任何麻烦,为用户提供了一种现代、有效且高效的AI推断体验。”
了解更多信息,请访问https://gcore.com/inference-at-the-edge
探索AITechPark,了解人工智能、物联网、网络安全、AITech新闻以及行业专家见解的最新进展!
注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Markdown源文件格式内容。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
Gcore发布AI应用程序,为终端用户提供无缝性能