(当“养龙虾”遇上全球治理:代码跑得比法律快?|热聊冷观,时长共2分38秒)
当“养龙虾”遇上全球治理:代码跑得比法律快
3月28日,联合国工业发展组织副总干事邹刺勇在《人民日报》刊发署名文章指出,在全球数字化转型的十字路口,人工智能成为关乎人类共同未来的治理命题。竞争越激烈,越需以风险共同体逻辑凝聚共识,以多层治理结构提升协同效率。
不久前,联合国决定设立“人工智能独立国际科学小组”和“人工智能治理全球对话”机制,证明人工智能特别是智能体的迅猛发展,已引发全球关切。与此同时,智能体工具OpenClaw在今年的爆火,不仅让智能体迅速走入公众视野,也让其隐含的安全漏洞和治理难题得到广泛讨论。

图片来源:新华社
全球多国有关AI治理的方案呼之欲出,不仅昭示了AI技术在解放生产力的同时,也将带来一场全球范围的安全挑战,亦预示一场AI治理规则的全球博弈即将展开。各国如何识别并应对风险?竞争与合作的边界在哪里?
治理跟不上技术演进?
应清晰建立规则框架“管住”新技术
OpenClaw之所以爆火,在于它与此前以对话为主的大模型不同,从“能说”迈向“能做”:用户授予权限后,它能自动执行任务、调用系统资源、批量处理流程,被视为进入智能体(Agent)时代的重要标志。
但伴随其走红,各类风险也迅速显现。近期,工信部和国家互联网应急中心连续发布风险提示,指出OpenClaw可能造成系统被控、隐私和敏感数据泄露等问题,提醒公众审慎使用。
相关研究也给出了警示。哈佛大学、麻省理工学院等多所高校最近联合发布的一份研究报告显示,在模拟企业环境部署AI智能体,仅两周就触发11起严重安全漏洞事件,超过六成企业在智能体失控时无法有效终止。
与此同时,今年央视3·15晚会还曝光了AI“投毒”黑灰产业链。不法分子利用大模型依赖联网搜索实时信息、从海量数据学习的特性,通过人为制造虚假数据来操控算法输出,让劣质产品变成“优选好物”。

图片来源:新华社
事实上,OpenClaw暴露的并非单一产品问题,而是全球人工智能快速发展中的共同挑战:技术演进的速度,正在把治理能力甩在身后。
“AI发展迅速,加上互联网的传播,使得问题很快被暴露,这其实是新技术发展的必经阶段。”大湾区人工智能应用研究院高级研究员杨燕认为,问题暴露了不是坏事,关键是“暴露之后要怎么做”。
在她看来,智能体的主要风险在于自主性。一旦获得系统权限后,它能自动执行多步骤任务。而当前OpenClaw等智能体虽然初步具备能力,但稳定性、可控性还不够完善。
“在能力边界界定清楚之后,现在的很多风险总体上还是可控的。”杨燕认为,比起“一刀切”限制技术发展,更应该明确权限边界。例如,哪些操作可由系统自主完成、哪些必须由人工审核、哪些高风险场景暂不开放。
杨燕指出,目前治理面临的一大难点,是各方对技术的认知不一致:技术方强调能力,用户觉得新奇,政府则担心规模化应用后带来的责任问题。因此,首先要“把认知拉齐”,明确风险如何看待、哪些原则应当遵循。
她强调,治理不能被短期恐慌牵着走,应抓住技术底层不变的基本原理,建立清晰的权限、责任和规则框架,让新技术既能“用得上”,也能“管得住”。
各国加快行动应对挑战
全球AI治理与国家间的竞争紧密交织
伴随OpenClaw在国内外引发热议,人工智能引发的安全隐忧并非孤例。3月3日,联合国秘书长古特雷斯主持了“人工智能独立国际科学小组”成立后的首次会议。该小组由40名来自全球多领域的专家组成,其中包括两位中国科学家,将为人工智能的风险和机遇提供独立科学评估。古特雷斯在会上强调,对于人工智能,亟须建立基于科学和真知的全球共识。该小组的评估报告将于2026年7月在日内瓦首届“人工智能治理全球对话”上发布。
在全球层面尝试建立共识的同时,各国和地区也在加快行动:欧盟理事会近日就一项简化部分人工智能监管规则的提案达成一致,主要涉及精简欧盟人工智能监管框架,减轻企业合规负担,同时禁止利用人工智能生成色情内容等;新加坡发布《智能体人工智能治理示范框架》,是全球首个针对智能体的政府级治理指引;韩国宣布实施《关于人工智能发展和构建信赖基础的基本法》,强调在国家对AI产业予以支持的同时,应防范可能产生危害的高风险AI应用。
日前,美国纽约州议会在审议一项法案,拟禁止人工智能聊天机器人向用户提供法律或医疗建议。美国部分州已出台法律限制AI在心理健康等敏感领域的应用。美国白宫则在近日发布了国家AI立法框架,强调由联邦层面制定统一的全国性AI规范,以避免各州自行制定不同规则造成的碎片化局面。

图片来源:新华社
与此同时,美国国防部正与人工智能公司Anthropic围绕AI军用伦理使用陷入司法争议。此前因Anthropic拒绝允许美国国防部将其Claude模型用于全自主致命武器系统或国内大规模监控,美国国防部将Claude列为“国家安全供应链风险”,并要求政府机构停止使用相关技术。Anthropic随后向联邦法院起诉,并在3月26日获得临时禁令,法官暂时叫停政府实施的惩戒措施。
“现在很多国家和地区纷纷出台AI相关立法或政策框架,本质上反映出AI技术发展太迅猛,现有规则体系难以有效应对其潜在风险和挑战。”大湾区人工智能应用研究院研究员张凤婷表示,这种“现有体系与技术发展速度不匹配”的情况,促使各方加速构建或更新治理体系。
张凤婷指出,不同国家和地区在AI发展阶段和特征上存在明显差异,因此治理策略也不尽相同。“中国和美国作为AI发展的领头羊,在AI领域竞争非常激烈,欧盟或其他的一些国家更多的是处于一种跟随状态。”
她提到,欧盟整体的AI治理框架更倾向于通过严格立法和监管措施来确保AI技术的安全可靠和符合伦理标准;而中国与美国在治理考量上更加复杂,不仅要关注风险防控,还要关注如何鼓励与推动技术创新、提升产业竞争力,并在安全与发展之间寻求战略平衡。
在治理体系加快构建的背后,国家间的技术竞争也愈发凸显。近年来,美国不断收紧对华技术出口管制,包括对AI芯片、半导体制造设备和部分云端算力服务的限制,试图在全球范围内构建技术壁垒。
“目前全球AI治理与国家间的竞争紧密交织。”张凤婷指出,美国近期发布的国家AI立法框架在一定程度上也反映出制定规则的意图。在中美产业竞争背景下,一些立法和技术限制措施可能会具有“自我保护”性质。她强调,对中国而言,更重要的是发展国内的内需市场,同时在政策层面加大对关键技术领域创新的鼓励。
先行先试鼓励技术创新
安全与发展“两手抓”构建可持续生态
今年的政府工作报告首次提出打造智能经济新形态,明确提出要深化拓展“人工智能+”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式。
“如今无论是国家层面还是地方层面,大家都非常重视人工智能。我认为这种重视本身,就是行业正在向更好方向发展的信号。”杨燕说。

图片来源:新华社
最近,针对OpenClaw的热潮,珠海市委网信办等单位联合发布《珠海市“养虾安全十条”——“龙虾安全”使用指引》。结合珠海实际,从安全风险认知、源头管理、权限控制、协同共治等十个维度,构建起全流程、全链条的AI安全使用规范体系。
“珠海的‘养虾安全十条’非常有创新性,也非常灵活。”张凤婷表示,这类指引既没有因为技术可能存在风险而限制使用,也没有因为技术前沿就忽略风险,而是在继续鼓励技术应用的同时,引导大家更规范、更安全地使用此工具。
深圳在地方立法方面更是走在全国前列,早在2022年就实施《深圳经济特区人工智能产业促进条例》,成为全国首部人工智能产业专项立法。在通过地方性法规引导人工智能产业健康发展的同时,也划定了人工智能研究和应用活动的“红线”。张凤婷认为,这类立法既鼓励技术创新和产业发展,又通过监管防范可能出现的风险,为AI产业提供了较明确的规范基础。
据报道,2025年,广东全省人工智能核心产业规模预计达3000亿元;人工智能核心产业实现超40%的高速增长,总量占全国四分之一;人工智能专精特新“小巨人”企业达147家,数量居全国第一。广东已明确今年将制定省级人工智能发展促进条例和数据条例,为全省AI发展提供法治保障。
“广东在AI发展和治理领域体现出了明显的先行意识。”张凤婷介绍,一方面,广东通过出台具体条例和指引,着力解决当前AI应用实践中遇到的具体安全问题;另一方面,又着手构建面向未来、可持续的治理生态体系。“整体来看,广东的治理实践体现了安全与发展并重的理念,展现出创新性,对其他省份或地方来说也具有示范意义。”
采写:南方+记者 吴彬彬 泠汐
策划:彭奕菲
订阅后可查看全文(剩余80%)







