ITBear旗下自媒体矩阵:

AI合成名人音视频乱象频发,如何守护声音肖像权?

   时间:2025-02-16 21:14:14 来源:环球时报新媒体作者:环球时报新媒体编辑:快讯团队 发表评论无障碍通道

近年来,AI深度合成技术引发的音视频侵权事件频发,从恶搞企业家雷军,到利用AI制作张文宏医生的音视频进行带货,甚至有不法分子借此技术进行诈骗,这一系列事件引起了广泛关注。

刘德华的声音也曾被不法分子利用AI技术伪造,用于吸引流量。对此,刘德华的电影公司迅速发布声明,提醒公众警惕此类AI语音合成技术的骗局。记者调查发现,AI深度合成音视频的制作门槛并不高,一些购物平台上的网店甚至以此为生,只需几十元,就能定制名人的AI深度合成音视频。

那么,这些高度逼真的AI换声和换脸视频是如何制作的呢?记者发现,虽然手机应用商城中有不少换脸换声工具,但它们的逼真度普遍不高。相比之下,网店制作的AI深度合成音视频则显得更为真实。专家指出,目前网络上存在多种开源软件和工具,可以实现换声和换脸效果,这些软件虽然有一定的技术门槛,但并非难以获取。

据中国网络空间安全协会人工智能安全治理专业委员会的专家薛智慧介绍,这些开源软件可供网民自由下载,并在自己的电脑上进行安装和使用。虽然这些软件属于半专业软件,步骤较多,但在短视频平台上,已有众多主播开始教授如何使用这些软件。

针对网络购物平台上使用AI深度合成技术制作出售名人音视频的行为,专家表示这已触犯相关法律。根据相关法律法规,未经授权,不得深度合成制作发布他人信息。因此,网店接单制作名人AI深度合成视频,已属于侵权行为,并应承担相应的法律责任。

北京航空航天大学法学院副教授赵精武指出,我国《民法典》已将自然人的声音视为一种人格权益,具有人身专属性。在司法实践中,国内已经审结了首例AI生成声音人格权侵权案,法院最终认定被告的行为构成侵权。

面对AI深度合成音视频侵权的问题,专家建议从多个层面进行防范。从技术角度来看,可以利用AI技术来对抗和检测AI。当前已有一些典型的AI技术能够对图片或音视频进行检测,判断其是否经过后期加工和合成。同时,法律层面也需要进一步完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,并加强执法力度。

平台方面,应强化相关政策法规的宣贯和执行,做好已有数据的保护,应用技术手段规避AI克隆侵权问题的发生。还应建立健全内容审核和侵权举报机制,及时发现和处理侵权问题。法律专家也提醒AI深度合成制作和信息发布者,不要心存侥幸,法律没有灰色地带。

赵精武副教授强调,法律并不是禁止使用AI合成技术,而是禁止不合法不合理的使用,尤其是禁止不进行任何显著标识和提示的AI合成信息的发布和传播。公众也应提高防范意识,学会识别AI合成内容,以免被误导。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version