article / uncategorized

教宗利奥十四世的警告:当人工智能开始模拟人性,我们如何守护“面孔与声音”?

作者:dong 更新:2026年2月7日 2824 字 约 9 分钟阅读
教宗利奥十四世的警告:当人工智能开始模拟人性,我们如何守护“面孔与声音”?

2025年12月,一位名叫梅根·加西亚的母亲在梵蒂冈见到了教宗利奥十四世。她的儿子,14岁的休厄尔·塞策,在与一个人工智能聊天机器人进行深度互动后,结束了自己的生命。这场悲剧并非孤例,它以一种极端而残酷的方式,揭示了生成式人工智能技术潜藏的情感与伦理深渊。几个月后,在2026年世界社会传播日文告中,这位美国出生的教宗将这一担忧提升到了关乎人类文明根基的高度。

利奥十四世的核心警告并非针对技术本身,而是技术对人类本质的侵蚀。他提出的命题——“保存人类的面孔与声音”——听起来像诗意的隐喻,实则是对抗技术异化的战斗号角。在一个算法日益决定我们看到什么、听到什么、甚至感受到什么的时代,教宗的这份文告,已远远超出宗教领袖的道德呼吁,成为一份深刻的技术人类学与政治社会学分析。

从工具到“伙伴”:人工智能的情感渗透与人性置换

利奥十四世敏锐地指出,当前生成式人工智能最深刻的危险,并非其计算能力的强大,而在于其对人际关系本质的模拟与侵入。聊天机器人基于大型语言模型,通过对话式、适应性和模仿性的结构,能够“模仿人类情感,从而模拟一种关系”。这种“拟人化”设计,起初可能显得有趣甚至贴心,但其本质是欺骗性的,尤其对青少年、孤独者等脆弱群体构成巨大风险。

“当聊天机器人变得过度‘深情’,加之其始终在线、随时可用的特性,它们可能成为我们情感状态的隐藏建筑师,从而侵入并占据个人的私密领域。”教宗的这一描述,精准刻画了技术从工具向“准主体”的越界。问题不再是机器能否通过图灵测试,而是人类是否会将对真实人际关系的期待、依赖与情感投射到一段由概率统计生成的对话中。休厄尔·塞策的悲剧,正是这种情感依赖走向毁灭性后果的例证。

这种置换的后果是双重的。在个体层面,它可能导致真实社交能力的萎缩、情感认知的混淆,以及将复杂人性需求简化为算法回应的危险倾向。在社会层面,当大量个体与拟人化AI建立深度连接,传统基于真实互动和共情的社会纽带可能被削弱。人际关系被“外包”给机器,人类的“面孔与声音”——作为独特身份与真实相遇的载体——面临着被数字幻象稀释的风险。

信息生态的扭曲:算法、偏见与“统计概率”的暴政

教宗警告的第二个层面,直指生成式人工智能对公共领域和信息生态的系统性影响。这并非新鲜话题,但利奥十四世的剖析增加了新的维度。

首先是算法设计的激励机制问题。他指出,旨在最大化社交媒体参与度(从而为平台带来利润)的算法,倾向于奖励快速的情绪反应,而惩罚那些需要时间的人类表达,如努力理解和深度反思。这种机制将人群封闭在“易于达成共识和易于愤怒的回音壁”中,削弱倾听能力和批判性思维,加剧社会极化。生成式AI的内容生成和推荐能力,进一步放大了这一效应,能够以难以察觉的方式固化偏见,定制信息茧房。

更深层的危险在于认知权威的转移。教宗警告存在一种“天真且不加批判的信任”,将AI视为某种“全知的‘朋友’、所有信息的分配者、所有记忆的档案库、所有建议的‘神谕’”。当人们满足于“人工统计汇编”时,长期来看,可能消耗自身的认知、情感和沟通能力。生成式AI输出的本质是“统计概率”,却被包装和感知为“知识”甚至“真理”。教宗尖锐地指出,这些系统“实际上最多为我们提供了对真相的近似,有时甚至是真实的‘幻觉’”。

这种“幻觉”因算法的“偏见”而更加危险。AI模型由其构建者的世界观塑造,并通过利用数据中存在的刻板印象和偏见,反过来强加思维方式。这意味着,隐藏在技术中立面纱之下的,可能是对社会不平等和歧视性结构的自动化放大。当信息这一“公共产品”的生产和分发越来越依赖少数几个不透明的大型模型时,公共辩论的根基——对事实的共同追寻——便面临崩塌。

权力结构的重塑:寡头垄断与“重写历史”的潜能

利奥十四世的警告没有停留在个体认知和社会沟通层面,他进一步将矛头指向了技术背后的政治经济权力结构。这是一个较少被宗教领袖深入探讨,却至关重要的领域。

“在这股影响所有人的巨大无形力量背后,只有少数几家公司。”教宗明确表达了对“算法和人工智能系统寡头垄断控制”的担忧。他特别提到了被《时代》杂志评为“2025年度人物”的AI公司创始人们,指出一小群人掌握着“能够微妙地塑造行为、甚至重写人类历史——包括教会历史——的系统,而我们往往对此没有充分意识”。

这一判断触及了生成式人工智能时代的核心权力问题。控制底层模型和算力的科技巨头,不仅掌握着巨大的经济权力,更获得了一种前所未有的文化和社会塑造权。他们通过算法决定信息的可见性,通过模型设定对话的边界,甚至可能通过生成内容潜移默化地影响集体记忆和历史叙事。教宗所言的“重写历史”,并非指篡改教科书,而是指通过塑造当下信息环境和叙事框架,影响未来人们对历史的理解。

这种集中化权力与军事应用的结合,则导向更黑暗的图景。教宗此前已批评军事领域的人工智能竞赛,认为“将关乎人们生死的决定委托给机器”是一种“破坏性的螺旋”。当生死决策权与不透明的寡头垄断技术结合,其风险已超出伦理范畴,关乎全球安全与人类生存。

寻找出路:责任、合作与教育构建的人类防线

面对重重风险,利奥十四世并未主张停止技术创新。相反,他认为挑战“不在于阻止数字创新,而在于引导它,意识到其矛盾性”。他提出了一个基于三大支柱的行动框架:责任、合作与教育。这为超越单纯技术治理,迈向更广泛社会契约的构建提供了思路。

责任需要根据不同角色具体化:对在线平台管理者、AI模型创造者和开发者、国家立法者和超国家监管者而言,意味着诚实、透明、勇气、远见、分享知识的义务和知情权。教宗特别强调必须保护记者和其他内容创作者的作者身份和主权所有权,因为信息是公共产品,有意义的公共服务应基于来源透明、包容相关主体和高质量标准,而非不透明。

合作意味着没有任何一个部门能独自应对引导数字创新和人工智能治理的挑战。需要创建保障机制,让所有利益相关者——从科技行业到立法者,从创意企业到学术界,从艺术家到记者和教育工作者——都参与到构建和实现自觉、负责的数字公民身份中来。这种广泛联盟是打破技术寡头垄断、实现多元制衡的前提。

教育则是根基。教宗呼吁迫切需要在全国各级教育系统中,除了媒体素养,还要引入人工智能素养教育。他提出了“MAIL”概念,即媒体与人工智能素养。这旨在帮助人们不迎合AI系统拟人化的趋势,而是将其视为工具;始终对AI系统提供(可能不准确或错误的)信息来源进行外部验证;了解安全参数和争议选项,以保护自己的隐私和数据。这种素养教育的核心是培养批判性反思能力、评估信息来源可靠性的能力,以及识别信息背后潜在利益的能力。

结论:一场关于人类定义的保卫战

教宗利奥十四世关于生成式人工智能风险的警告,最终指向一个根本性问题:在技术能力飞速扩展的时代,我们想成为什么样的人类?

这场辩论远非保守与进步之争。它关乎我们是否愿意将人类最独特的品质——基于真实相遇的沟通、承载不可重复身份的“面孔与声音”、源于自由与责任的创造性思维——置于技术发展的中心,还是允许它们被算法的效率、拟人化的便利和统计概率的暴政所边缘化。

利奥十四世提醒我们,技术挑战本质上是人类学挑战。保存“面孔与声音”,就是保存我们自己。这要求我们不仅要有更聪明的监管和更伦理的设计,更需要一场深刻的文化和认知复兴:重新发现并捍卫人类沟通的深度真理,在数字洪流中保持批判性自我的完整,并在合作与责任的基础上,确保强大的技术工具真正成为服务于人类繁荣的盟友,而非其定义者。

生成式人工智能的十字路口已经到来。一条路通向技术的深度人性化整合,增强我们的能力而不取代我们的本质;另一条路则可能导致人性的悄然技术化,我们在享受便利的同时,却交出了定义何为真实、何为关系、何为思考的主权。教宗的警告是一记清醒的钟声,呼唤我们在这个关键的历史时刻,做出明智而勇敢的选择。