近年来,大型人工智能模型频繁遭受网络攻击的现象引起了广泛关注。DeepSeek近期遭受的严重网络攻击并非孤例,回顾历史,多个知名大模型都曾成为黑客攻击的目标。
2023年,聊天机器人巨头ChatGPT就遭遇了黑客组织的DDoS攻击,导致服务多次中断,甚至部分功能瘫痪。紧接着,在2024年,秘塔AI搜索引擎也未能幸免,遭受了Mirai变种病毒的侵袭。进入2025年,kimi.ai同样多次受到DDoS攻击,安全形势不容乐观。
DeepSeek的遭遇尤为引人注目,在短短一个月内,它先后经历了大规模DDoS攻击、僵尸网络侵袭、仿冒网站泛滥以及数据库安全隐患等多重威胁,对正常服务造成了严重影响。据分析,DeepSeek主要面对的是DDoS攻击,包括轻微的HTTP代理攻击、大规模HTTP代理攻击以及由HailBot和RapperBot两个僵尸网络发起的攻击。
安全专家指出,这一系列攻击事件反映出AI行业当前面临的严峻安全挑战。网络攻击可能呈现持续时间长、攻击方式不断进化、攻击烈度升级以及危害范围扩大等特点。尽管大模型频繁遭受攻击已成为常态,但通过分析这些事件,仍可发现一些共性。
值得注意的是,遭受攻击的大模型往往由初创科技公司打造,如ChatGPT、Kimi以及DeepSeek等。相比之下,由传统互联网巨头如Bing、通义千问、文心一言等开发的大模型则较少受到攻击的影响。初创企业在安全体系建设方面的能力相对较弱,更愿意将资源投入到模型技术的研发和迭代上,从而在安全防护方面存在明显短板。
多位安全专家表示,大模型需要通过严密的安全技术保障和运行监测来确保安全性、可靠性和稳定性。然而,目前绝大多数大模型在安全建设方面仍存在不足。此次DeepSeek遭受攻击,一方面是由于自身防御机制建设不足,未能有效应对高强度的DDoS攻击;另一方面也与开发过程中安全测试机制不完善有关,导致漏洞被攻击者利用。
大模型在运营过程中面临多重安全风险,包括技术缺陷、不当使用及恶意利用等。处理敏感数据时,易受攻击导致数据窃取、服务中断及用户流失。模型本身若存在缺陷或后门,则可能成为攻击者的目标。大模型生成的内容可能引发虚假信息、歧视、隐私泄露等问题,对公民安全、国家安全及伦理安全构成威胁。
从模型自身风险来看,由于需要对外提供公开服务并涉及敏感信息的开放场景,大模型容易引发多种安全隐患,如提示注入攻击、拒绝服务攻击、提示词泄露以及通用越狱漏洞等。这些攻击都会对大模型的安全性和稳定性造成重大影响。
在防御机制建设方面,大模型需要加强安全技术保障和运行监测。然而,目前大多数大模型在这方面仍存在明显不足。除了传统的网络安全和数据安全解决方案外,还需要针对大模型输入输出的内容过滤产品、模型保护安全产品以及大模型伦理审核产品等。
随着人工智能技术的发展,AI攻击的形式变得越来越多样化和复杂化。攻击者利用AI独特的能力来增强攻击效果,使得防御策略需要不断升级。多位安全专家建议国内高科技企业建立对抗性安全运营体系,将产品、人员、手段和流程融合成联动整体,以应对多样化的AI攻击形式。
同时,传统的安全防护措施也不能忽视。大模型需要使用防火墙、入侵检测、抗DDoS的硬件安全设备或云服务来保障网络、数据和应用层面的安全。针对AI大模型特有的安全风险,如prompt注入攻击、信息内容安全风险、数据隐私泄漏以及伦理与法律风险,需要升级安全防护手段,进行输入过滤与验证、对抗训练技术抵抗攻击以及实时监测与审查模型输出内容等。
安全问题对于大模型企业而言,虽然会增加成本,但它是决定大模型上限的关键因素之一。从国内大模型行业的发展来看,初创型公司的大模型产品往往更容易受到攻击,而传统互联网巨头开发的大模型产品则相对安全系数较高。然而,总体来看,仍有大量大模型服务器“裸奔”在互联网上,存在严重的安全隐患。
传统互联网巨头在网络安全和数据安全方面早有布局,相对安全体系建设比较完善。而初创公司出于成本考虑或因经验不足,导致安全体系建设相对落后。如若后续不能补足安全体系的话,即便性能再好的模型产品,也终将成为“昙花一现”。因此,加强大模型的安全能力建设不仅关乎风险防控,更是其突破应用天花板的关键。