OpenAI采取措施提升AI生成内容透明度
OpenAI加入了Coalition for Content Provenance and Authenticity (C2PA) steering committee,并将整合这一开放标准的元数据到其生成式AI模型中,以增加关于生成内容的透明度。{ width=50% }
C2PA标准允许数字内容通过元数据证明其起源,无论是完全由AI创建,还是使用AI工具进行编辑,或者是传统的捕捉。 OpenAI已经开始将C2PA元数据添加到其最新DALL-E 3模型在ChatGPT和OpenAI API中的图像输出中。当OpenAI的即将推出的视频生成模型Sora被广泛使用时,这些元数据将被集成进去。 OpenAI解释说:“人们仍然可以在没有这些信息的情况下创建欺骗性内容(或可以删除它),但他们无法轻易伪造或更改这些信息,从而使其成为建立信任的重要资源。” 此举是在希望遏制AI生成内容在美国、英国和其他一些国家今年大选前可能误导选民的日益增长的担忧之际。验证AI创建的媒体可能有助于打击旨在传播虚假信息的Deepfake和其他操纵内容的活动。尽管技术措施有所帮助,但OpenAI承认,实际上实现内容的真实性需要平台、创作者和内容处理者的集体行动,以便保留最终消费者的元数据。 除了整合C2PA,OpenAI还正在开发新的来源方法,例如用于音频和图像检测分类器的防篡改水印,以识别AI生成的视觉。 OpenAI已经向其研究员访问计划开放了DALL-E 3图像检测分类器的申请。该工具预测了图片来自OpenAI模型的可能性。该公司表示:“我们的目标是促进独立研究,评估分类器的有效性,分析其现实世界的应用,揭示这种使用的相关问题,并探索AI生成内容的特征。” 内部测试显示,在从DALL-E 3视觉中正确识别约98%的图片以及不到0.5%的非AI图像被错误标记的情况下,该分类器在区分DALL-E和其他生成式AI模型产生的图像方面遇到困难。 OpenAI还在其Voice Engine定制语音模型中已经整合了水印技术,目前处于有限预览阶段。 该公司相信,对来源标准的更广泛采用将导致元数据伴随内容通过其完整生命周期,填补了数字内容真实性实践中的“关键差距”。 OpenAI正在与微软合作启动价值200万美元的社会适应基金,以支持AI教育和理解,包括通过AARP、国际IDEA和人工智能合作伙伴关系。 OpenAI表示:“虽然上述的技术解决方案为我们的防御提供了积极的工具,但实际上实现内容真实性将需要集体行动。” OpenAI指出:“我们在来源方面的努力只是更广泛行业里的一部分——我们的许多同行研究实验室和生成AI公司也在推进这个领域的研究。我们赞扬这些努力——业界必须合作并分享见解,以增进我们的理解,并继续促进网络透明度。”
(摄影师:Marc Sendra Martorell)
查看更多:Chuck Ros, SoftServe: 以负责任的方式提供变革性AI解决方案
想要从行业领袖那里了解更多关于AI和大数据的知识吗?请查看将在阿姆斯特丹、加利福尼亚和伦敦举行的AI及大数据博览会。这一全面的活动与其他领先的活动同时举行,包括智能自动化会议、BlockX、数字转型周和网络安全与云博览会。 探索由TechForge提供的其他即将举办的企业技术活动和网络研讨会。
标签:ai、人工智能、c2pa、道德、genai、生成式ai、openai、社会
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
OpenAI采取措施提升AI生成内容透明度