气候变化的国际治理花了数十年才建立起基本的合作框架。AI风险需要同样的全球协调,但时间窗口更短。
这是一个关于协调失败的经典困境:全球利益 vs 国家竞争。
主要玩家的治理路径
欧盟:规则先行
欧盟AI Act是全球首个全面AI监管框架。它采用基于风险的方法——高风险AI应用需要更多监管,低风险应用则相对自由。
优势:提供了清晰的法律框架,对用户权利保护强。 劣势:可能抑制创新,给企业带来合规成本。
美国:行业自律+行政命令
美国没有统一的AI法律,而是通过行业自律和行政命令结合的方式监管。
优势:灵活性高,不抑制创新。 劣势:执法力度弱,不同州可能有不同规则。
中国:快速迭代+垂直监管
中国采取快速迭代的方式,通过具体的行业指南和规范来监管特定AI应用。
优势:响应速度快,能够针对具体问题具体分析。 劣势:缺乏统一框架,法律确定性较低。
全球协调的障碍
三个主要障碍:
技术民族主义:AI被看作国家竞争力的关键,各国不愿在国际规则制定中让步。
验证困难:如何验证AI系统是否符合国际标准?当前的评估方法都是不完美的代理。
利益分歧:不同国家对AI的期望不同——有些关注经济收益,有些关注社会稳定,有些关注国家安全。
可能的前进路径
最现实的路径是”渐进式协调”:
- 在具体领域(AI武器、AI金融应用)建立国际规范
- 建立信息共享机制——各国分享AI风险信息
- 在标准制定上协调——技术标准往往成为事实上的国际规则
- 逐步建立信任措施
这条路会很慢。但考虑到AI风险的时间窗口,也许慢比没有好。