大模型够安全吗?安全智能体如何解题

作者 郜小平 2025-05-13 17:12

5月10日,以“数智无界 安全共生”为主题的2025中国数谷·西湖论剑大会在杭州举办。为推动大模型合规、可控、可靠发展,安恒信息开展安全检测研究,参与多领域大模型安全标准制定,构建大模型安全治理框架。

2025年被誉为“智能体应用元年”‌,其核心价值在于自主性与进化能力,能够自主调用工具、完成任务,并通过反馈学习持续提升能力。

安恒信息董事长范渊透露,早在两年前,安恒信息就意识到智能体是改变网络安全行业的一项革命性技术,依托恒脑,安恒信息已经完成了500多个共创智能体,覆盖数十个场景。会议期间,安恒信息CTO刘博,安恒信息高级副总裁、研究院院长王欣等分别接受南方+记者采访。

问题:大模型数据或造成外泄

安全问题在大模型时代正面临前所未有的挑战。刘博提到,在部署大模型之时,还要部署类似于向量数据库、智能体平台等,智能体涉及到的数据链条和业务环节其实呈现指数级扩展,很容易产生权限管控、敏感数据泄露等问题,也可能产生恶意“数据投毒”,而且智能体运行的任务不是预先设计好,而是根据需求及时生成,运行的任务又不是非常可控。

“传统模型的任务执行路径相对明确,交互模式较为封闭;而智能体需要动态响应多样化需求,要处理方方面面,各种AI的技术可能都要用到,数据又来回流转,很容易产生认证、数据泄露等问题。”刘博说。

正所谓“解铃还须系铃人”,刘博提出“以智能约束智能”的治理思路,主张用大模型能力构建闭环安全体系如在检测阶段强化模型鲁棒性;或在实施过程当中约束智能体可能产生的一些恶意行为。

刘博谈到,在大模型时代,大家对安全的感知可能比以前更强烈,一方面是因为涉及纯数据驱动型的模式,另一方面则是应用大模型往往涉及到很多敏感数据的交互。

他举例说,在实际应用中,为获取精准服务,常需上传如PPT、PDF、工作记录等富含敏感信息的文件;过去管理层面的流程再造,还比较少涉及数据共享,但现在要构建一个AI应用,可能造成数据线上“裸奔”。

王欣也表示,其实除了内容安全,运行有很多传统安全问题,比如主机安全、网络安全、应用安全、API安全等,很多单位会将模型引入到现有的生产系统中,或者使用外部模型,甚至一些员工可能用国外模型,这涉及到企业内的私有数据和商业秘密“出网”甚至出境。

王欣还提到,针对用AI做数据分类分级,去年安恒已经服务了一百多个客户。数据分类分级在过去是一个非常大的痛点,以结构化数据为例,同样是数据表格,不同厂商和不同开发者命名不一样,原来传统分类分级靠软件识别不好,很多人都解决不了问题;客户侧做分类分级的数据字段有十几万个到几十万个,但人一天能处理的只有一千个。因此,很多客户一直将数据安全做成合规需求,原因是过去的技术无法让它真正服务于实战,而通过大模型+智能体的方式,让数据分类分级在效率上实现了30倍提升。

壁垒:大模型与业务深度结合

值得一提的是,“恒脑”已经在不断迭代并进入3.0阶段,对不断进化的安全大模型来说,其护城河是什么?

刘博对此表示,首先,大模型还没到“拿来即用”的阶段,To C领域,用户得学会怎么用才行,在To B领域,壁垒其实比想象的还是要高。选用什么样的模型,还需要结合怎样的技术,怎么让疗程更可靠等等,能够真正玩转大模型,其实技术壁垒挺高。

其次,要让大模型不产生幻觉,这就关乎安全的知识和经验的应用,才能让大模型可靠、稳定。比如说,“恒脑”已经覆盖了80%的问题,但另外20%还依赖于人的操作。

“写报告的时候,一个大模型写两次都是不一样的,它会自由发挥。但是在与业务相结合时,那就不能不一样。我们融入了很多安全知识和经验,来让大模型变得更可靠。”刘博说。

此外,大模型还要和产品深度结合。刘博说,不是说拿了现有产品复制粘贴就可以产生交互,也不是开源下载下来就可以的。比如文生图,这是一个To C的场景,会用和不会用的差距很大。而在To B领域,一个简单的任务可能要拆成几十个步骤,才能更稳定可靠。

南方+记者  郜小平


编辑 刘静

订阅后可查看全文(剩余80%)

手机扫码打开本网页
扫码下载南方+客户端