AI治理重构:新德里宣言八十六国签署背后的系统化指令与资源民主化
新德里AI宣言:八十六国技术合作背后的竞争
2026年2月18日至19日,印度新德里的巴拉特曼达帕姆国际展览会议中心举办了全球人工智能影响峰会。八十六个国家和两个国际组织的代表签署了《新德里宣言》。这份文件以梵文“सर्वजन हिताय, सर्वजन सुखाय”(意为“众生福祉,众生喜乐”)为理念,旨在推动全球AI合作,让更多地区受益于技术发展。峰会期间的五万人展览上,印度电子和信息技术部长阿什维尼·瓦伊什瑙宣布,会议共吸引了超过2500亿美元的基础设施投资承诺。表面合作之下,中美欧等主要技术力量仍在AI治理领域各自布局。
七支柱框架与印度的角色
宣言提出名为“查克拉”(Chakras,意为“轮”)的七支柱框架,涵盖人力资本、公平获取、信任安全、能源效率、科学进步、资源民主化以及与社会公益协调的经济增长。瓦伊什瑙在2月21日表示,美国、英国、加拿大、中国、丹麦、德国等主要经济体均已签署。印度官方将此视为对其AI愿景的认可。
印度凭借其作为全球南方代表和数字新兴国家的身份,正在塑造一种不同于西方“风险优先”或中国“发展优先”的AI叙事。峰会展示的两个案例体现了这一思路:古吉拉特邦阿穆尔合作社的AI畜牧管理助手,以及利用AI数字化和翻译古代医书《苏胥鲁塔本集》的项目。前者关注农业现代化,后者关联文化传承。正如印度总理莫迪在2月22日广播节目中所说,这些展示让国际社会看到了AI与本土需求结合的可能。印度的策略是将AI治理从抽象讨论转向具体的社会应用。
此外,印度通过“资源民主化”和“全球AI影响公域”等倡议,试图改变目前由少数科技巨头和发达国家主导的AI资源分配。瓦伊什瑙提到的《AI民主扩散宪章》和“可信AI公域”,目标是为缺乏算力设施的国家降低技术门槛。这对许多中小国家具有吸引力。
签署国名单背后的政治考量
八十六个签署方同时包括美国、中国、欧盟国家以及亚非拉多国。在AI治理上长期存在分歧的主要力量,罕见地共同签署了一份原则性宣言。这反映出各国对AI技术影响的普遍担忧——即使无法立刻制定硬性规则,也需建立基础对话平台,以避免治理真空。
但共识并不牢固。宣言是自愿且不具法律约束力的。各方对条款的理解和侧重点必然不同:美国及其盟友可能更关注“信任与安全”,侧重防范恶意使用和数据保护;中国可能更强调“公平获取”与“科学发展”,反对技术封锁;欧盟则可能希望其《人工智能法案》中的风险监管框架获得国际呼应。
印度作为东道主,成功让峰会成为各方都能接受的场合。但具体执行——如“全球AI影响公域”由谁主导、资源如何分配——将成为下一阶段争论的焦点。峰会期间,谷歌、OpenAI、微软、Anthropic等公司高管悉数到场,提醒人们私营科技巨头仍是AI能力的主要掌握者,国家协议最终需要与产业界对接。
投资承诺与实际挑战
峰会的一项具体成果是超过2500亿美元的基础设施投资承诺,以及约200亿美元的风险投资意向。这些资金计划用于在发展中国家建设AI计算中心、数据平台和研发网络。例如,阿联酋宣布将在印度部署一台8百亿亿次浮点运算的“主权AI超级计算机”。这类项目既是经济合作,也涉及数字基础设施标准的竞争。
但普惠愿景面临现实困难。宣言将“能源效率”单独列为支柱,直接回应了AI训练的巨大能耗与碳排放问题。建设绿色AI基础设施的成本更高。同时,“人力资本”支柱要求各国教育体系进行长期改革,短期内难见成效。
总体来看,新德里宣言意味着全球AI治理从原则讨论转向具体合作框架的尝试。印度通过将技术治理与发展议程、文化叙事结合,为自己赢得了议程设置权。但宣言能否落地,取决于后续能否建立有效的机构、资金和监督机制,也取决于大国能否在利益分配上妥协。AI技术发展不会等待国际谈判,新德里只是起点。真正的考验在于,这八十六个国家能否将纸上共识,转化为让全球民众,尤其是弱势群体,实际感受到的成果。