从Safety到Security:西方叙事下全球AI安全治理淡化
七国集团(G7)于加拿大艾伯塔省举行的峰会上发布了《人工智能促进繁荣声明》,重点关注人工智能的好处和机遇。然而“安全”一词在该声明的出现次数为“零”,忽略了人工智能大部分可能发生的故障或被有害使用的可能性。
2025年《人工智能促进繁荣声明》标志着一个重大转变——从早期对人工智能风险的考量转向几乎完全关注其益处。这一转变象征着西方**国家对人工智能政策的更广泛重新调整。推动这一跨大西洋转变的力量包括特朗普**的影响力、地缘**竞争、行业压力以及人工智能日益增长的成功记录。
国际对话中人工智能乐观情绪的兴起有助于在全球范围内传播人工智能的好处,但忽视或完全放弃通过多边合作应对人工智能风险则是愚蠢的。未来,功能更强大的人工智能模型可能会造成大量的国际犯罪,如利用人工智能进行网络攻击、监视公民或制造新型病原体;人工智能伴侣应用程序和人工智能媒体信息可能会在社会层面上扰乱人际关系;人工智能模型和机器人还可能会引发大规模失业并加速新大规模杀伤性武器的发明。
一、风险观念降级:G7与多边框架的政策转向
过去十年,七国集团的人工智能政策基调经历了一个完整的循环:早期的热情为日益增长的人工智能安全问题留下了空间,而如今这种担忧已经有所减弱,转而关注繁荣的信息传递。
“人工智能”一词首次出现在1982年弗朗索瓦•密特朗的一次G7讲话中,在沉寂30多年后,2016年一份联合声明承认促进人工智能和机器人等新兴技术研发的重要性。这些早期评估通常侧重于人工智能的好处,但并没有忽视风险。直至2024年,风险依然是焦点,但同时也关注人工智能的益处。
2025年领导人峰会上,各国领导人发表《人工智能促进繁荣声明》时,明显缺乏这种警示语气。七国集团领导人继续强调人工智能带来的机遇,但大幅缩减了此前对全球人工智能风险的关注。该文件对人工智能的主要担忧在于其对电网的影响以及“颠覆和被排除在当今技术革命之外的风险”。至于其他潜在危害,例如深度伪造欺诈和人工智能驱动的生物威胁,则鲜有提及。
七国集团对风险的忽视绝非偶然,而是全球其他人工智能对话轨迹所展现出的更大转变的代表。继注重安全的2023年英国人工智能安全峰会和2024年首尔人工智能峰会之后,2025年巴黎召开的人工智能行动峰会改变了方向,重点关注人工智能释放的经济机遇。巴黎峰会结束时,英国对人工智能创新的投资高达12位数,美国和英国拒绝签署讨论人工智能伦理的。一位专家开玩笑地将其称为“巴黎人工智能反安全峰会”。
国际人工智能安全研究所(AISI)网络也见证了类似的趋势。巴黎峰会后,英国人工智能安全研究所(AISI)将其名称从“人工智能安全研究所”(AISafetyInstitute)更改为“人工智能安全研究所”(AISecurityInstitute)。Safety到Security的转变不仅仅是品牌重塑,而是该组织从“技术隐患”到“国家安全威胁”的风险认知的转换。几个月后,美国也将其AISI更名为“人工智能标准与创新中心(CAISI)”,并将新的重点放在“防范外国**对美国技术进行繁琐且不必要的监管”。
慕尼黑安全会议是另一个从人工智能安全转向其他议题的例子。2024年,领先的人工智能公司签署了《人工智能选举协议》,承诺通过改进人工智能生成内容的检测工具、评估人工智能风险模型、向公众提供透明度等方式,自愿遏制人工智能对全球选举造成的风险。许多公司发布了进展更新,详细介绍了他们在这方面的工作,但这项自愿承诺已于2024年底到期,而2025年的会议也没有采取任何替代措施。现任外交关系委员会**阐述了这一趋势,他写道:“人工智能仍然是慕尼黑会议的一个主要议题,但讨论的基调已经发生了变化...今年,会议的主题是人工智能带来的机遇,以及欧洲人对其监管方式可能使他们越来越落后的担忧。”
北约的政策近期也淡化了人工智能的风险。2024年,北约修订后的人工智能战略纳入了关于人工智能滥用风险的章节,其中指出“北约必须继续倡导负责任的使用行为,利用其号召力来影响国际规范和标准。”但在2025年峰会上,北约发布了一份计划摘要,强调需要“赢得技术采用竞赛”,并认为“一些采购和程序风险需要成为创新和快速采用的固有组成部分”。这种措辞表明,北约对新兴技术风险,包括人工智能风险的容忍度更高。
在美国人工智能立法的讨论中,安全问题也逐渐被淡化。2023和2024年,美国参议院和众议院都探讨了可能出台的人工智能立法。但在2025年,国会却考虑禁止大多数州的人工智能法律,却没有通过联邦法律来取代它们,这很能说明问题。
同样,在2025年上半年,欧盟委员会撤回了其人工智能责任指令,瑞典首相呼吁暂停推出《欧盟人工智能法案》。与此同时,英国继续推迟通过人工智能立法的努力,同时抽出时间发布《人工智能机遇行动计划》。
尽管针对人工智能风险缓解政策并未完全消失,然而这样的例子越来越成为例外,而不是常态。
二、四重引擎:安全让位于繁荣的推力
1、美国政权更迭
美国**从拜登到特朗普的更迭,是自由**国家人工智能政策转变的重要因素。美国在国际人工智能讨论中拥有重要影响力,这不仅是因为其经济和军事实力,也源于其在人工智能领域的领导地位。
2、行业利益裹挟
然而,特朗普**并不能单独解释人们对人工智能安全性日益漠视的现象。以法国为例,早在特朗普当选之前,法国就开始筹划其人工智能行动峰会,并对欧洲的人工智能责任指令提出质疑。2023年末,法国与德国和意大利联手反对欧盟人工智能法案中的通用人工智能监管,其中包括一份联合文件,主张自愿自我监管,以便欧洲参与者能够“在全球人工智能竞赛中脱颖而出,传递我们的声音和价值观”。就在18个月前,正是法国提议扩大人工智能法案的范围,以监管通用模型。特朗普在2024年当选无法解释法国在总统第二任期之前突然转变政策。
这一时期的人工智能政策转变与OpenAI在2022年感恩节后不久发布的ChatGPT恰好吻合。到5月底,OpenAI首席执行官在国会作证并警告人类灭绝。大致来说,世界在2023年初突然意识到人工智能的强大,而且很多人觉得其进步的速度令人恐惧。
与此同时,人工智能行业正在酝酿一种新的情绪:害怕错失良机。在ChatGPT发布后的几个月里,谷歌管理层宣布进入“红色警报”,微软向OpenAI投资了100亿美元,Meta和Anthropic发布了重要的人工智能模型,埃隆•马斯克也开始筹划自己的人工智能公司。在大西洋彼岸,法国人工智能初创公司Mistral于2023年6月融资1.05亿欧元。
如果与Mistral联系起来看,法国放弃通用人工智能监管就更容易理解了。自2017年当选以来,法国总统埃马纽埃尔•马克龙多年来一直致力于支持初创企业和科技创新。此外,Mistral的联合创始人之一塞德里克•奥曾担任法国数字事务国务卿,主张在2023年实施更宽松的欧盟规则,并警告说,如果合规成本过高,欧盟《人工智能法案》“可能会扼杀Mistral”。各种形式的行业游说,包括来自比Mistral更富有的科技公司的游说,可能在将全球人工智能政策讨论从风险转移方面发挥了作用。
越来越多的证据表明人工智能具有盈利能力和切实的效益,这为游说活动带来了助力。OpenAI声称其年度收入已超过100亿美元,而Anthropic的月收入则超过3.33亿美元。针对人工智能在劳动力中的应用的研究表明,这项技术正日益普及,并能显著提高生产力。或许正是出于这些原因,益普索(Ipsos)的民意调查数据显示,在2022年至2024年期间,一些国家对单个人工智能产品净效益的乐观情绪有所上升,例如法国(+10%)、德国(+10%)和美国(+4%)。
3、地缘**与军备竞赛
除了促进经济发展,各国**还注意到人工智能在增强军事实力方面的潜力。除了空域,人工智能在陆地、海军、太空和网络作战等其他领域也展现出良好的前景。Anthropic、谷歌、OpenAI和xAI最近获得了美国国防合同,每家公司可获得高达2亿美元的合同,中国、希腊、丹麦等国也在开展其他军事人工智能项目。
4、技术成功叙事
人工智能带来经济和军事优势的前景引发了更激烈的地缘**竞争,并推动了“**人工智能”的实现。到目前为止,中国、美国、法国、欧盟已努力为2025年未来几年的人工智能相关项目筹集数千亿美元。然而,目前最好的通用人工智能模型大多来自美国和中国的公司。这种情况在未来可能仍将如此,因为根据EpochAI的数据,美国目前拥有全球约75%的人工智能超级计算机性能,而中国以15%的份额位居第二。因此,一些自由**国家可能不愿意优先考虑人工智能安全,担心预防性政策会让他们进一步落后于美国和中国。
三、治理真空:当世界失去应对AI风险的屏障
淡化安全问题当然有好处。自由**国家转向人工智能机遇——不受安全担忧的阻碍——可能有助于促进该技术的快速发展,从而改变医疗保健、汽车安全、科学发现、可及性和农业等领域
减缓监管的另一个潜在好处是,未来的监管可以根据更先进的技术进行量身定制。人工智能将如何发展,以及当前所有政策提案是否能随着系统的发展而持续有效,目前仍不确定。例如,强制对超过计算阈值的人工智能模型进行一轮测试,这预设了训练和部署之间的明确分离,但如果未来的人工智能系统能够在实际运行中持续改进,这种分离可能会失效。采取谨慎的国际治理方式可以降低颁布不成熟监管法规的风险,并留出时间来设计更稳健、更具前瞻性的框架。
然而,如果未来人工智能对国际安全的威胁成为现实,各国**可能会发现自己缺乏有效应对所需的机构、基础设施、共识和时间。与国际原子能机构(IAEA)在核技术方面或欧洲核子研究中心(CERN)在粒子物理学方面不同,人工智能缺乏成熟的国际机构。此外,目前世界缺乏可靠的验证技术和协议来确保主要人工智能强国履行应有的承诺。随着人工智能日益强大,达成共识可能会变得更加困难。如果主要国家认为某些缓解措施不必要并拒绝加入协议,那么这些协议可能会失去很大一部分价值。
或许最具挑战性的是,在不同文化和利益的国家之间制定有效的多边政策可能需要历经多年时间的努力,而如果人工智能快速发展,时间本身会变得极其奢侈。因为新的全球人工智能风险已经出现:人工智能带来的生物威胁越来越近,而恶意行为者试图利用人工智能生成的媒体欺骗**官员,也已经成为现实的案例。
这些事态发展表明,准备的时间越来越少。当全世界都在思考如何在谨慎与乐观之间取得平衡时,放弃安全或许是人工智能政策迄今为止最重大的**。
-
从Safety到Security:西方叙事下全球AI安全治理淡化
G7声明转向AI繁荣,安全风险被忽视。
2025-08-30 09:02:00 -
全球半导体迎增长新契机,国内厂商借AI与国产替代抢占高地
半导体大涨,AI驱动增长,国产替代突破。
2025-08-30 09:01:53 -
DeepSeek V3.1发布后,投资者该思考这四个决定未来的问题
DeepSeekV31编程超Claude4,成本降68倍,架构创新引热议
2025-08-30 09:01:50 -
Manus披露预测性年度收入为9000万美元
Manus要走向全球市场已成既定事实,而团队也在持续强调自己的中国属性。
2025-08-30 09:01:38 -
美股AI泡沫深夜崩盘,新一轮东升西落来了
美股势必有恐慌性的抛压。
2025-08-30 09:01:00 -
对不起,AI博士年薪300万起步
“口袋不够深”,别说上桌了,就连看看热闹也坐不到前排。
2025-08-29 09:08:59
-
微软Bing聊天机器人现已加入Chrome和Safari插件,但仍有字数与发送次数限制
微软的人工智能 Bing 聊天机器人现在可以在谷歌 Chrome 和苹果 Safari 浏览器上使用了,用户只需访问 Bing com 网站,就可以和该聊天机器人进行交流,但目前仍有字数与发送次数限制。
2025-04-09 15:08:19 -
OpenAI发布新版GPT-4 Turbo模型丨夸克上线大模型AI PPT产品丨百度美图WPS与三星达成Galaxy AI合作
【AI奇点网2024年1月26日早报】本站每日播报AI业界最新资讯,触摸时代脉搏,掌握未来科技动向。事不宜迟,点击查看今日AI资讯早餐。
2025-02-18 10:51:08 -
字节跳动公测首个AI聊天机器人App“豆包”丨快手首个大语言模型“快意”亮相丨腾讯:下半年发布自研基础大模型
【AI奇点网2023年8月21日早报】本站每日播报AI业界最新资讯,触摸时代脉搏,掌握未来科技动向。事不宜迟,点击查看今日AI资讯早餐。
2025-04-04 15:01:22 -
国内版 “苹果vision pro” 发布! 中兴通讯发布nubia Neo Air智能眼镜
中兴通讯在2023年上海世界移动通信大会上正式发布了nubia Neo Air智能眼镜,这款全球首款轻型双目屈光一体化GPT无线AR智能眼镜引入了与GPT同类AIGC算法,实现了语音指令、即时问答和智能交互等功能,为用户提供全场景的智能助理。
2025-04-15 14:05:26 -
苹果WWDC 2023开发者大会上只字未提“AI”,库克和他的伙伴有着自己的独特思考
最近科技圈最令媒体人“困惑”的一件事,莫过于全球科技领军巨头苹果公司,竟然对AI人工智能“不闻不问”。
2025-04-24 11:23:24 -
物理AI如何变革机器人产业?英伟达与宇树、银河通用创始人闭门会全实录
AI与机器人协同进化,迈向下一个科技时代
2025-08-17 07:05:32 -
AI正在掏空大脑,思想沦为残废,未来只分AI的「主人」和「奴隶」
AI分化:驾驶员主动驾驭,乘客思维退化
2025-08-18 09:06:03 -
AI绘画ComfyUI进阶教程丨插件IPAdapter的详细使用教程,风格模仿,换脸全靠它
哈咯大家好,本期正式给大家带来进阶部分的插件讲解教程,虽然很多朋友一直在用IPA但可能很多朋友还不太了解其结构,希望这期关于ipa用法的教程能对大家有所帮助吧!
2024-12-17 22:49:30 -
midjourney新功能_style tuner应用教程_MJ最新教程
MJ的新功能style tuner,终于可以训练自己的模型风格了,在我快速模式恢复之后立马尝试了一遍,操作步骤简单,比SD容易上手太多,我来代练一遍,大家跟上节奏
2024-12-19 06:34:05 -
通义听悟如何管理我的记录_通义听悟管理我的记录使用方法
通义听悟支持创建文件夹,分类管理记录;可以对记录进行收藏、移动、重命名等操作。
2024-12-27 12:45:31






