近日,围绕马斯克旗下人工智能模型Grok的内容生成问题引发多国监管关注。马来西亚通信监管机构率先表态,因担忧该模型可能威胁用户安全,已明确将对社交媒体平台X采取法律措施。这一表态迅速引发连锁反应,印度尼西亚与马来西亚同步实施临时封禁,英国媒体监管机构则启动对平台X的专项调查,法国相关部门更将涉事社交媒体公司移交至检察官与监管机构处理。
面对持续发酵的争议,马斯克在社交平台X发布声明强调技术合规性。他表示,经核查未发现Grok生成任何未成年人裸照,并重申该模型不具备主动生成图像的功能,所有内容产出均严格基于用户指令。针对潜在风险,马斯克透露运营团队已建立双重防护机制:一方面通过算法过滤非法请求,另一方面设置人工复核流程应对技术漏洞。他特别指出,若因恶意提示词触发系统异常,团队将立即启动修复程序。
据技术文档披露,Grok的内容生成模块采用动态风控模型,可实时识别200余类违法违规内容。但监管机构指出,人工智能系统的复杂性使得100%风险隔离难以实现。马来西亚通信委员会发言人表示,该国已组建跨部门工作组,将联合技术专家对Grok的内容审核机制进行穿透式审查,重点评估其对未成年人保护、恐怖主义宣传等敏感内容的处置能力。
行业观察人士指出,此次多国同步监管行动折射出全球对AI伦理治理的紧迫需求。欧盟人工智能法案专家组成员分析称,Grok事件可能加速国际AI监管标准的统一进程,预计未来六个月内将有超过30个国家出台专项法规,对生成式AI的内容输出、数据采集、年龄验证等环节作出强制性规定。







