OpenAI正在加入内容来源和真实性联盟(C2PA) 指导委员会,并将将该开放标准的元数据集成到其生成式 AI 模型中,以提高生成内容的透明度。
C2PA 标准允许数字内容通过证明其来源的元数据进行认证,无论是完全由人工智能创建、使用人工智能工具编辑还是以传统方式捕获。 OpenAI 已经开始将 C2PA 元数据添加到 ChatGPT 和 OpenAI API 中最新 DALL-E 3 模型输出的图像中。当 OpenAI 更广泛地推出时,元数据将被集成到 OpenAI 即将推出的视频生成模型 Sora 中。
“在没有这些信息的情况下,人们仍然可以创建欺骗性内容(或者可以删除它),但他们不能轻易伪造或更改这些信息,这使其成为建立信任的重要资源,”OpenAI 解释道。
此举出台之际,人们越来越担心人工智能生成的内容可能会在今年美国、英国和其他国家的重大选举之前误导选民。验证人工智能创建的媒体可以帮助打击深度伪造和其他旨在虚假信息活动的操纵内容。
虽然技术措施有所帮助,但 OpenAI 承认,在实践中实现内容真实性需要平台、创作者和内容处理者采取集体行动,为最终消费者保留元数据。
除了 C2PA 集成之外,OpenAI 还在开发新的来源方法,例如用于音频和图像检测分类器的防篡改水印,以识别 AI 生成的视觉效果。
OpenAI 已经开放了通过其研究人员访问计划访问其 DALL-E 3 图像检测分类器的应用程序。该工具可以预测图像源自 OpenAI 模型之一的可能性。
该公司表示:“我们的目标是开展独立研究,评估分类器的有效性,分析其实际应用,提出此类使用的相关考虑因素,并探索人工智能生成内容的特征。”
内部测试显示,区分非 AI 图像与 DALL-E 3 视觉效果的准确性很高,大约 98% 的 DALL-E 图像被正确识别,不到 0.5% 的非 AI 图像被错误标记。然而,分类器在区分 DALL-E 和其他生成 AI 模型生成的图像方面更加困难。
OpenAI 还将水印纳入其语音引擎自定义语音模型中,目前处于有限预览状态。
该公司相信,越来越多地采用来源标准将导致元数据伴随内容贯穿其整个生命周期,以填补“数字内容真实性实践中的一个关键空白”。
OpenAI 与 Microsoft 携手推出200 万美元的社会复原力基金,通过 AARP、International IDEA 和 Partnership on AI 等方式支持人工智能教育和理解。
OpenAI 表示:“虽然上述技术解决方案为我们提供了积极的防御工具,但在实践中有效地实现内容真实性需要集体行动。”
“我们围绕起源所做的努力只是更广泛的行业努力的一部分——我们的许多同行研究实验室和生成人工智能公司也在推进这一领域的研究。我们赞扬这些努力——行业必须合作并分享见解,以增强我们的理解并继续提高在线透明度。”
发表评论