MLCommons与AI Verify将合作推进AI安全倡议

同意合作,共同制定LLM的AI安全基准
今天,在新加坡,MLCommons®和AI Verify签署了一份意向书,同意就为全球AI安全发展制定一套通用的生成式AI模型安全测试基准展开合作。图片{ width=60% }


成熟的安全生态系统需要跨公司合作,国家安全机构,审计机构和研究人员之间的合作。这份协议推动的AI安全基准工作的目标是为AI开发者、集成商、购买方和决策者提供一种全球公认的安全测试方法,用于生成式AI。
MLCommons AI Safety工作组是由全球学术研究人员、行业技术专家、政策和标准代表以及公民社会倡导者组成的,最近宣布了v0.5 AI Safety基准验证概念(POC)。AI Verify将开发可互操作的AI测试工具,这些工具将为预计于今年秋季发布的具有包容性的v1.0版本提供信息。此外,他们正在构建一个用于交互测试的工具包,以支持基准测试和红队行动。
“迈出迈向全球公认的AI安全基准和测试标准的第一步,AI Verify Foundation很高兴与MLCommons合作,以帮助我们的合作伙伴在其开发的文化环境和语言中建立对模型和应用程序的信任。我们邀请更多的合作伙伴加入这一努力,推动新加坡和全球AI的负责任使用,” AI Verify基金会董事会主席王振辉博士说。
AI Safety工作组鼓励全球参与,以帮助塑造v1.0 AI Safety基准套件及未来版本。要做出贡献,请加入MLCommons AI Safety工作组。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

MLCommons与AI Verify将合作推进AI安全倡议

https://www.gptnb.com/2024/06/04/2024-06-03-auto3-JUJEBq/

作者

ByteAILab

发布于

2024-06-04

更新于

2025-03-21

许可协议