ITBear旗下自媒体矩阵:

微软蓝屏事件引发AI安全反思 AIIA推出新举措加强治理

   时间:2024-07-26 16:47:26 来源:ITBEAR编辑:星辉 发表评论无障碍通道

【ITBEAR科技资讯】7月26日消息,近期微软的大规模蓝屏事件在全球范围内引起了广泛关注,这一事件不仅揭示了软件BUG可能引发的巨大风险,同时也让人们开始思考,在AI时代,类似的问题可能会带来更为严重的后果。

在此背景下,中国人工智能产业发展联盟(简称“AIIA”)安全治理委员会的成果发布会备受瞩目。AIIA秘书长、中国信通院院长余晓晖在会上强调,当前人工智能安全治理亟需行业各方的共同努力。他提出,应完善人工智能安全风险识别的方法论,构建更为敏捷、精确的安全风险识别机制,从而能够及早、准确地发现潜在风险。此外,加强人工智能安全评测技术工具的研究也至关重要,旨在通过技术手段来有效治理技术本身所带来的问题。

据ITBEAR科技资讯了解,AIIA安全治理委员会已经围绕人工智能的治理框架、风险管理、内生安全及安全应用等方面展开了深入的理论和技术研究工作。为了应对AI带来的安全挑战,该委员会推出了一系列举措。

在发布会上,人工智能安全守护计划正式启动。该计划旨在打造AI Guard品牌,通过建立AI系统情报共享机制和AIGC真实性和可信赖来源互认机制,提升国内AI技术服务提供方和使用方的安全防护能力。同时,推动设立与人工智能相关的保险产品,为行业提供更多保障。

中国信通院人工智能所的黑一鸣博士还发布了自研的大模型安全加固解决方案。该方案通过模型微调、外挂安全知识库等方式对开源大模型进行安全防护加固,旨在保持模型原有通用能力和推理效率的同时,增强其抵御多种诱导攻击的能力。

人工智能具有高度的技术交叉性和产业融合性。中国法学会法治研究所研究员刘金瑞指出,法学专家在了解技术特征的基础上,才能设计出有效的规范方案。随着人工智能的不断发展,国家层面已经开始通过小切口的方式进行立法,涉及深度合成、算法、AIGC等领域,并出台了如科技伦理审查办法等相关法规。

总体来看,人工智能的安全治理需要技术、法律和行业各方的共同努力。通过不断完善风险识别机制、加强技术研究和立法保障,我们可以更好地应对AI时代的安全挑战。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version