文 | 黄律微言 黄鹏律师
在短视频、直播、电视节目、营销广告等场景中,AI主播们纷纷开始上岗营业。借助AI技术,数字主播可以拥有和真人媲美的外形、声音、表情、互动交流,不仅如此,AI主播简直是完美员工,因为TA不会提出任何劳动保障的要求。然而要用好这位完美员工,运营方可能仍旧需要注意不少法律问题。
主播是虚拟的,但责任是实在的
虽然AI主播不是公司有编制的工作人员,但其对外说的每一句话,都代表公司行为。如果是复读机式的主播,只要在事先做好文本审核,问题不大。如果是一定能动性的主播,也就是TA可以自主和用户互动,那什么该说,什么不该说AI主播清楚吗?
我们知道,大模型存在AI幻觉的现象,一本正经得胡说八道,是极有可能发生的。主播陪你聊聊天有时候没有关系,如果用来作为商业行为,就是个大问题。尤其在医疗、法律、金融这样对精准度要求极高的行业,正常从业人员都需要持许可证才能经营。目前可以看到许多免费的AI法律咨询,体验下来比传统搜索引擎高效靠谱。但是要收费,就首先就是面临是不是违反律师法的疑问,第二出错了运营方就得负责,这个负担恐怕是非常大的。
胡说八道第二个严重的问题,是容易违反法律、社会公德、社会主义核心价值观。这个问题在大模型兴起初期就出现了。根据卡耐基梅隆大学的 Ryan Steed 和乔治华盛顿大学的 Aylin Caliskan 论文《无监督的方式训练的图像表示法包含类似人类的偏见》, OpenAI 的 iGPT和 Google的 SimCLR在种族、肤色和性别等指标上几乎原样复制了人类测试对象的偏见和刻板印象。AI主播需要和真人主播一样,遵守《网络主播行为规范》,国家广播电视总局、文化和旅游部在规范中列举了31种不得出现的行为。运营方在选择大模型技术方时,一定要考察是否针对我国法律法规和主播行业规范进行了有效的价值对齐。
员工的“脸”,不是想用就用
将员工人脸复刻到AI主播,涉及到员工肖像权、个人信息权益等人格权,必须经过员工的授权同意/知情同意。基于公司的优势地位,员工“配合”提供同意协议恐不是难事,但这样形式上的同意协议效力也存在商榷之处。特别是,如果劳动合同约定的工作内容不包含提供人脸数据的话。
因为涉及到人格权,员工对人脸数据享有撤回同意的权利。以及,当员工离职之后,其数字分身继续上岗、视频作品继续使用会存在争议。这些对业务稳定会有一定影响。
因此,一份合法合理的同意协议,应该包括报酬对价,以及人脸数据的使用方式、使用时间、撤回同意的处理、知识产权约定、离职后使用等约定。
不要让用户迷恋主播, TA只是个AI
AI主播完美的外貌、声线,以及算法设定下包含情绪价值的反馈,会让一部分人投入不恰当的情感。AI的可怕之处还在于,TA可以针对目标群体设定不同的算法,千人千面。电影《her》中的人工智能系统OS1,同时和600多人发展了恋爱关系。AI主播不仅能掏空你的钱包,还能掏空你的心。
根据《互联网信息服务深度合成管理规定》,提供AI主播服务,或应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。这一法规目前多数视频平台已经内化为平台规则。抖音发布的《关于人工智能生成内容的平台规范暨行业倡议》,提出发布者应对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实,特别是易混淆场景。
针对未成年人这样的脆弱性群体,《未成年人保护法》《生成式人工智能服务管理暂行办法》都对服务提供者提出了防止未成年人沉迷的义务。
什么能做?光看法律可不够
AI技术作为目前快速发展的前沿科技,带来的好处显而易见,但治理也变得不容易。目前国际上形成的共识,是通过伦理先行进行敏捷治理,通过伦理这样的“软法”,对不可预知的技术风险进行管控。我国已经建立了伦理审查制度,虽然全面实施还存在实际的困难,但运营方心里得清楚,伦理这个监管工具随时可以落地。另外一面,遵循伦理也是维护品牌形象。华为此前AI消除一键“脱”衣的功能,就引起广泛争议;华为也紧急进行了功能修改。
包括AI伴侣、AI复活、AI主播这样的新型服务,需要根据具体应用场景充分评估伦理风险。
总结
对于使用AI主播(特别是高阶AI主播)的使用方来说,黄律师建议如下:
1.选择经过大模型备案的技术供应商。
2.考察供应商的大模型在法律和行业适配性上,是否成熟可靠。