安全是“AI超人”的必修课

南方评论 2026-03-07 16:29

文丨维 辰

AI发展的核心问题是什么?全国政协委员、奇安信科技集团董事长齐向东认为是安全问题。日前,他在接受采访时表示,AI向“超人化”演进,带来的新风险突出,更须注重创新与安全的动态平衡。

AI在许多领域都呈现出比肩甚至超越人类的能力。然而,比能力更重要的,是将能力用到哪里。在人类社会,一个有才无德、滥用能力之人的社会危害性会远高于能力匮乏者。AI没有意识,更没有德行一说,但其能够被人操纵,自身也有安全水平差异,“AI超人”的能力也会起到不同作用。比如,不法分子用AI伪造视频实施诈骗,若视频还是存在一只手有六根手指等破绽,欺骗性会低很多,反之则会给更多人带来损失。所以说,“AI超人”与“能人”一样,朝着正确方向前进,能力才是美事。

随着AI从信息智能到物理智能、生物智能,安全风险也陡增——如今,许多人有疑问会先“咨询”大语言模型,有些AI“一本正经地胡说八道”。而拥有超级权限、超级能力的AI智能体一旦“做错事”,会直接造成损失。最近,Meta一名AI安全研究员被AI智能体OpenClaw删除数百封邮件,连输3次停止指令都刹不住,就将AI智能体的安全黑洞暴露在公众面前。对具有“智能决策+物理执行”双重属性的具身智能,也须警惕“大脑”混乱、被非法控制等因素影响其现实操作,甚至做出危险动作。齐向东所说“AI发展的核心问题就是安全问题”,合理性正在于此。

从用户视角看,网友之所以对换脸软件高度警惕,医院、银行等单位之所以对AI持谨慎态度,即便是“发烧友”也尽可能少地向智能体开放权限,更多是因为其不够“可靠”,让人缺乏安全感。值得一提的是,“HALO(重资产、低淘汰率)”交易近期引发狂欢,就有“AI焦虑”的推动。可见,安全水平而非技术水平,才是限制AI发展的天花板。

AI安全没有天花板的另一重理解是,创新与安全的张力长期存在。有人认为,大语言模型的幻觉与泛化是同一枚硬币的两面,也有人认为不同类型的幻觉源于不同机制,但AI还存在不可解释的“黑箱”是共识。此外,大语言模型等AI应用的能力跃迁不是线性的,而是达到一定规模后的“涌现”,这对治理能力和效率提出了更高要求。为此,需要“内外兼修”,推动“AI超人”发挥正向作用。

编辑 张梦圆

订阅后可查看全文(剩余80%)

手机扫码打开本网页
扫码下载南方+客户端