ITBear旗下自媒体矩阵:

AI合成名人音视频乱象:你的偶像也可能“被带货”?

   时间:2025-02-17 11:16:23 来源:21世纪经济报道作者:21世纪经济报道编辑:快讯团队 发表评论无障碍通道

近年来,AI技术在音视频领域的深度合成应用引发了广泛关注,尤其是其被用于侵权行为的案例层出不穷。从对企业家雷军的恶搞,到利用AI制作的张文宏医生音视频进行个人带货,这些现象不仅侵犯了公众人物的权益,也扰乱了市场秩序。

早前,网络上曾出现利用AI技术合成的刘德华声音,这一行为迅速吸引了大量流量。对此,刘德华的电影公司迅速发布声明,警告网民不要上当受骗,因为这是一种利用AI语音合成技术伪造的骗局。

央视新闻近期的一项调查显示,制作AI深度合成的音视频并不复杂,甚至在一些电商平台上,这项技术已经成了网店牟利的手段。消费者只需支付几十元,就可以定制到名人的AI深度合成音视频。

记者亲身体验了一款个性化定制的文生音模型服务,发现仅需198元就可以定制一个角色的声音,而如果愿意支付更高的费用,如超过千元,则可以定制多达六个角色的声音。在该产品的页面上,已经展示了包括杨幂、刘亦菲、丁真、成龙等名人的声音样本,用户只需简单操作,就能将这些克隆声音添加到自己的角色库中。

面对这一乱象,相关法律法规已有明确规定,禁止未经授权深度合成制作并发布他人信息。然而,一些网店仍然接单制作名人的AI深度合成视频,这种行为已经构成了侵权,并应承担相应的法律责任。

值得注意的是,这种侵权行为不仅损害了公众人物的权益,也对社会风气产生了不良影响。一些不法分子利用AI技术伪造名人音视频,进行欺诈或误导消费者,严重破坏了市场的公平性和诚信度。

随着AI技术的不断发展,未来可能会有更多新的应用场景和挑战出现。因此,社会各界应共同关注AI技术的伦理和法律问题,推动其健康、有序地发展。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version