2025-10-21
10 月 21 日消息,当地时间 10 月 20 日,美国演员工会(SAG-AFTRA)、OpenAI、布莱恩·克兰斯顿及多家影视艺能公司联合发布声明,就 OpenAI 在 Sora2 平台中针对声音与肖像权保护的合作成果进行了说明。声明指出,OpenAI 已针对未授权用户的声像复制功能加强防护措施,确保艺术家和表演者在生成式技术使用中的权利得到尊重。
根据声明,Sora2 平台已实施个人声音与肖像使用的“选择加入”政策(opt-in policy),所有艺术家、表演者及个人均有权决定是否允许模拟其声音或形象,以及允许使用的具体方式。该政策意味着,未获得明确授权的用户无法在 Sora2 中生成他人的声音或肖像,从技术和政策层面保障了艺术家权益。
OpenAI 表示,这一举措不仅是对法律和监管要求的响应,也体现了公司对生成式人工智能伦理部署的承诺。平台将提供透明的操作流程,让创作者能够清晰了解如何管理个人声音和肖像的使用权限。此外,OpenAI 承诺在收到相关投诉时将迅速响应,并采取必要措施防止未经授权的使用。
SAG-AFTRA 和参与声明的影视艺能公司均对政策表示欢迎,认为这是生成式技术与艺术家权益保护之间平衡的有效尝试。演员工会指出,随着人工智能在影视、广告及数字内容创作中的应用不断扩大,保障创作者声音和形象的控制权已成为行业核心议题。OpenAI 此次与行业组织及个人艺人合作,提供了可执行的操作机制,为整个行业树立了示范标准。
布莱恩·克兰斯顿在声明中强调,技术创新应服务于创作者,而非侵害其权益。他指出,明确的授权流程和可选择机制不仅保护了艺术家,同时也为内容创作者、开发者提供了清晰的使用边界,有助于构建公平、安全的数字内容生态。
业内分析认为,Sora2 的声像保护政策有望成为生成式 AI 技术行业的新标准。在保障个人权利和透明度的基础上,平台能够继续提供创新功能,同时降低法律风险和社会争议。这对于推动生成式人工智能在影视、游戏及教育等领域的健康应用具有重要意义。
总体来看,OpenAI 在 Sora2 中推出的声音与肖像保护政策,通过选择加入机制、快速投诉响应以及行业合作,体现了对艺术家权益的高度重视。这一举措不仅提升了技术伦理水平,也为生成式人工智能在影视和数字内容领域的广泛应用提供了安全、可控的操作框架。
动态 2024-02-01
新闻 2024-02-06
动态 2024-01-17
动态 2024-01-16
新闻 2024-01-16
新闻 2024-01-17
新闻 2024-02-20
新闻 2024-02-01
动态 2024-01-17
动态 2024-02-01