气候变化的国际治理花了数十年才建立起基本的合作框架。AI风险需要同样的全球协调,但时间窗口更短。

这是一个关于协调失败的经典困境:全球利益 vs 国家竞争。

主要玩家的治理路径

欧盟:规则先行

欧盟AI Act是全球首个全面AI监管框架。它采用基于风险的方法——高风险AI应用需要更多监管,低风险应用则相对自由。

优势:提供了清晰的法律框架,对用户权利保护强。 劣势:可能抑制创新,给企业带来合规成本。

美国:行业自律+行政命令

美国没有统一的AI法律,而是通过行业自律和行政命令结合的方式监管。

优势:灵活性高,不抑制创新。 劣势:执法力度弱,不同州可能有不同规则。

中国:快速迭代+垂直监管

中国采取快速迭代的方式,通过具体的行业指南和规范来监管特定AI应用。

优势:响应速度快,能够针对具体问题具体分析。 劣势:缺乏统一框架,法律确定性较低。

全球协调的障碍

三个主要障碍:

技术民族主义:AI被看作国家竞争力的关键,各国不愿在国际规则制定中让步。

验证困难:如何验证AI系统是否符合国际标准?当前的评估方法都是不完美的代理。

利益分歧:不同国家对AI的期望不同——有些关注经济收益,有些关注社会稳定,有些关注国家安全。

可能的前进路径

最现实的路径是”渐进式协调”:

  1. 在具体领域(AI武器、AI金融应用)建立国际规范
  2. 建立信息共享机制——各国分享AI风险信息
  3. 在标准制定上协调——技术标准往往成为事实上的国际规则
  4. 逐步建立信任措施

这条路会很慢。但考虑到AI风险的时间窗口,也许慢比没有好。