版权信息
书名:上善AI:有温度的人工智能治理
ISBN:978-7-115-69385-3
本书由人民邮电出版社发行数字版。版权所有,侵权必究。
您购买的人民邮电出版社电子书仅供您个人使用,未经授权,不得以任何方式复制和传播本书内容。
我们愿意相信读者具有这样的良知和觉悟,与我们共同保护知识产权。
如果购买者有侵权行为,我们可能对该用户实施包括但不限于关闭该帐号等维权措施,并可能追究法律责任。
版 权
著 王江平
责任编辑 郭 家 韦 毅 王 威
人民邮电出版社出版发行 北京市丰台区成寿寺路11号
邮编 100164 电子邮件 315@ptpress.com.cn
网址 http://www.ptpress.com.cn
读者服务热线:(010)81055410
反盗版热线:(010)81055315
内 容 提 要
本书系作者结合学术研究、工作实践、企业访谈与深度思考所撰写,直面智能时代的核心挑战——如何确保 AI 始终服务于人类福祉,创造性地提出“上善AI”治理理念,将中国传统智慧——老子“上善若水”理念融入 AI 治理框架,提出以文化对齐三层次(价值对齐、制度对齐、哲学对齐)为基石,构筑AI治理体系。
本书主要内容分为“智界之问”“智能之心”“智权之争”三篇,回应隐私保护、就业结构、伦理安全等公众关切的问题,系统分析人机对齐的技术路径与伦理内核,剖析全球AI主权竞争与治理博弈。
本书旨在为政策制定者、AI技术开发者及关注AI发展的公众提供兼具理论高度与实践深度的AI治理思路,探寻技术发展与人类价值和谐统一的“善治”之路,勾勒安全、公平、普惠的智能未来愿景。本书可作为机关企事业单位AI素养培训读本,也可为高等学校AI相关课程提供教学参考。
作者简介
王江平,工学硕士,研究员级高级工程师,全国政协委员,工业和信息化部电子信息科学技术委员会主任,中国人工智能产业发展联盟战略委员会主任委员。曾任瓮福集团总经理、贵州天福化工董事长、贵州省经信委主任、贵州省副省长、国家工商行政管理总局副局长、工业和信息化部副部长。长期从事工业和信息化工作,对企业管理、产业科技、产业金融与制造业数字化智能化绿色化转型有长期的观察和实践。
序一
论“上善若水”之道与人工智能之术
—— 一种东方智慧的现代启示
进入21世纪第三个十年,以深度学习和大语言模型为代表的人工智能(Artificial Intelligence,AI)技术正以前所未有的速度渗透到社会生产和人类生活的方方面面,成为驱动新一轮科技革命和产业变革的核心力量。然而,技术的巨大赋能效应总是伴随着深刻的伦理隐忧。从算法偏见加剧社会不公,到数据隐私被肆意侵犯;从决策“黑箱”导致的责任真空,到自主系统可能带来的失控风险,如何把控AI这柄利剑的剑刃朝向与挥舞准则,已成为全球共同面临的严峻挑战。技术工具本身是中立的,但其设计、开发和应用却深植于特定的价值框架之中。因此,为AI的发展确立正确的价值导向和伦理规范,即为其寻找恰当的“道”,显得尤为迫切。
在西方,AI伦理的探讨多源于功利主义、义务论和美德伦理等哲学传统,形成了诸如阿西洛马人工智能原则(Asilomar AI Principles)等一系列治理框架。然而,这些框架在面对不同文化背景下的复杂场景时,有时会显现出局限性。在此背景下,回溯人类古老的文明智慧,探寻跨越时空的思想资源,我们需要寻找新的视角。中国道家思想,特别是老子在《道德经》中提出的“上善若水”理念,以其深邃的自然哲学和辩证智慧,为我们理解和引导AI的发展提供了一个独特的东方范式。
如果将AI视为一种追求极致效能的“术”,那么“上善若水”的哲学思想便可为其提供一种宏大、包容且充满智慧的“道”。“道”为“术”确立方向、划定边界、注入灵魂;“术”则为“道”的实现提供具体路径和强大能力。江平同志在书中系统地探讨“上善若水”之道如何指导AI之术的健康发展与伦理治理,尝试构建一个源于东方智慧、面向全球挑战的AI伦理框架,以期为这场关乎人类未来的重要对话贡献一份独特的见解。
《道德经》(王弼注本)中的“水之七善”是老子对水的赞美,并非泛泛而谈,而是进行了系统阐述:“上善若水,水善利万物而不争。处众人之所恶,故几于道。居善地,心善渊,与善仁,言善信,正善治,事善能,动善时。夫唯不争,故无尤。”这“七善”构成了“上善若水”之道的具体内涵,它不仅是美德的集合,更是一种包含了目标(利他)、方法(不争)和结果(无尤,即没有过错和怨咎)的完整行为哲学,完全具备了作为宏观指导原则——“道”的资格。
如果说“上善若水”是形而上的“道”,那么AI则是形而下的“器”或“术”。“术”的本质在于其工具性,它追求的是效率、能力和对物理世界的改造。理解AI作为“术”的本质及其局限,是探讨“道术结合”的必要步骤。
当代AI技术的核心是基于海量数据和强大算力的模式识别、预测与生成。无论是用于图像识别的卷积神经网络,还是驱动大语言模型的Transformer架构,其本质都是一种高度复杂的数学工具,体现了“术”的几个极致特征:强大的效能、目标的高度集中,以及价值维度的任意表达。
作为一种技术工具,AI本身并非完全没有“价值”,但它所处理的,只是被预先设定、可计算、可优化的“价值”,而诸如仁爱、责任、信任、分寸和时机判断等复杂的人类价值,并不内生在其运行机制之中。
正是这种纯粹的工具属性,使得AI在缺乏正确引导时,可能朝着危险的方向发展。它拥有强大的“能”,却缺乏内在的“仁”“信”“时”的智慧。当强大的“术”脱离了“道”的约束,一系列伦理困境便随之出现。以下这些困境已成为全球性的议题。
算法偏见与社会公平。AI系统从人类庞大的知识库中学习,可能无意识地复制甚至放大其中的某些偏见,导致招聘、信贷、司法等领域的歧视性决策,从而损害社会公平。
隐私与数据主权。AI的“食粮”是数据。为了追求更高的性能,科技公司有动机无节制地收集用户数据,可能引发严重的隐私泄露和数据滥用问题。
责任归属与“黑箱”问题。许多先进的AI模型(如深度神经网络)决策过程极其复杂,难以解释,形成了所谓的“黑箱”。当AI系统出错并造成损害时,如何界定和分配责任(开发者、使用者还是AI本身)成为法律和伦理上的难题。
自主性与人类控制。随着AI自主性的提高,特别是在军事(如自主武器系统)和关键基础设施领域,人们担忧可能出现“价值对齐”失败,即AI的目标与人类福祉不一致,最终导致失控的风险。
技术滥用与安全风险。AI技术可被用于恶意目的,如制造深度伪造(Deepfake)信息进行欺诈和舆论操纵,或用于开发新型网络攻击工具,对社会安全构成威胁。
面对AI之术带来的挑战,我们迫切需要一个稳固的“道”来对其加以引导和约束。“上善若水”的哲学恰好提供了一个全面而深刻的伦理框架。我们可以将“水之七善”与“利万物而不争”的核心精神,转化为以下指导AI发展的具体原则。
其一,“居善地”教导我们谦逊和安于本分。应用于AI,这意味着我们应始终将AI定位为辅助人类的工具,而非取代人类的主体。AI的发展目标不应是创造一个超越和统治人类的“超级智能”,而应是增强人类的能力,解决人类面临的难题。
其二,“心善渊”要求内心宁静深邃,洞察本质。对AI而言,这包含两层含义。第一,AI系统应具备“深度思考”的能力,不仅仅是进行浅层的模式匹配,更要能够处理复杂、多维度的信息,做出审慎的判断。第二,也是更重要的一层,我们必须追求“可解释AI”(Explainable AI,XAI),让AI的决策过程像平静的深潭一样,虽然深邃,但足够清澈,能够被人类理解、审查和追溯。
其三,“与善仁”是“利万物”精神最直接的体现。这一原则确立了AI技术的根本价值导向:服务于人类福祉。AI的研发应以“向善”为首要目标,致力于解决贫困、疾病、气候变化、教育不公等全球性问题,确保技术红利能够被社会各阶层共享。
其四,“言善信”强调的是诚信与规律。AI系统必须可靠、可信、透明,其性能和局限性必须被诚实地告知用户,运行应如潮汐般有规律、可预测。
其五,“正善治”的核心是公平与秩序。这是应对AI算法偏见问题的解药。AI治理的首要任务,就是确保算法的公平性。这需要在技术层面进行“算法去偏”,在应用层面建立严格的公平性审计和影响评估机制。
其六,“事善能”肯定了AI作为“术”的强大能力。然而,能力越大,责任越大。必须建立清晰的责任链条,确保对于任何由AI系统造成的损害,都能找到负责的主体。
其七,“动善时”是关于时机和情境的智慧。AI的应用同样需要审慎地考虑时机、环境和社会接受度,遵循“审慎原则”,并具备情境感知和动态适应能力,避免在不合时宜的场景下做出僵化、错误的决策。
“上善若水”之道与AI之术的关系,并非简单的“道主术从”的单向控制,而是一种“道术合一、体用不二”的共生关系。没有“术”的支撑,“道”便沦为空谈;而没有“道”的引领,“术”则可能成为脱缰的野马。道家智慧提醒我们,真正的强大并非源于无坚不摧的力量,而是源于如水般柔韧、包容、利他且顺应规律的智慧。
将“上善若水”的哲学思想融入AI的伦理治理,其实质是以一种东方式的、整体性的、充满人文关怀的思维,去平衡现代科技的工具性。它为我们提供了如下一套超越具体规则的宏观价值坐标。
目标上,坚持“利万物”的向善原则,确保AI服务于人类福祉。
方法上,秉持“不争”的谦逊态度,将AI定位为辅助工具,追求人机和谐共生。
实践中,遵循“水之七善”所衍生的七大原则,做到谦逊、深邃、普惠、可信、公平、负责、审慎,为AI的设计、开发、部署和监管提供全方位的伦理指导。
本书以东方智慧回应时代之问,既为AI伦理注入了温润深厚的哲学底蕴,也为古老经典的现代转化提供了一条极富解释力与建设性的路径。将古老哲学思想转化为现代技术伦理规范,是一个复杂且持续的探索过程。它需要哲学家、科学家、工程师、政策制定者和公众的跨界对话与共同努力。然而,可以肯定的是,在这个由代码和算法构建的时代,“上善若水”这一源于自然的深刻洞见,为我们燃起智慧之光,传递温暖之力。它指引我们,在追求技术之“术”的极致时,永远不要忘记滋养万物、容纳百川的为善之“道”。唯有道术合一,才能引导AI的浪潮最终汇入增进人类福祉的浩瀚海洋,而非泛滥成灾的洪水之中。
黄奇帆
研究员
重庆市原市长
中国国家创新与发展战略研究会学术委员会常务副主席
2026年2月
序二
昭昭向善,智能灿然
《上善AI:有温度的人工智能治理》即将付梓之际,江平兄邀我为之作序。我们相识多年,常常就技术与产业发展的问题在一起交流。他对AI的观察与思考,不止于技术的迭代,更从产业变革、国家治理以及人类文明走向的角度给予宏观的剖析。通读此书,不少观点令我心有戚戚——AI走到今天,已不只是工程问题,必然会触及哲学、伦理、治理与教育的多元博弈。
江平兄长期推动信息化与智能化相关工作,对AI的发展有着独到的观察,他未把AI当作孤立的技术概念,而是将其置于“产业、社会、治理”的整体框架中加以讨论。本书以“智能向善”为主线,既顺应了当下技术之浪潮,也直面随之而来的风险与分歧,尝试以科学态度辨其边界,以开放视野纳其争鸣,以责任意识守其底线。本书并不急于给出“万能答案”,而是努力把问题讲清、把边界讲明、把共识的可能性铺陈出来——在众声喧哗的时代,这样的理性尤为可贵。
我们究竟需要怎样的AI?在我看来,离不开几个关键的“平衡”。
其一是理性与直觉的平衡。今日AI的发展,似乎更强调理性,习惯对技术进行拆解与重构,追求效率,大模型的出现更让人真切感受到技术的跃迁。但真正的创新,并不仅仅靠对既有数据的回溯与归纳,AI若要走得深,势必还要发展出更高维的直觉与洞察——这无法用过去的数据推算。
其二是创新与边界的平衡。有人担心治理会束缚创新,而我的体会恰恰相反,产业一旦成势,常常会反过来牵引技术发展方向。如果没有清晰边界,最终伤害的还是创新本身。AI可以如水,利万物而不争;亦可能奔涌成患,扰乱秩序,因此需要河道与堤岸——没有边界,就难谈长久和繁荣。
其三是价值多元与价值对齐的平衡。我们现在谈通用人工智能、谈世界模型,但在不同哲学传统与价值体系之下,人类会设定不同的优先顺序与倾向,使得机器可能会走向不同的决策路径。现实世界之“好”,常由多元价值共同裁量。所谓“向善”,首先需要人类自身在更大范围内形成对“何为善、何为好”的最低共识。书中强调,人机对齐是AI治理的核心课题,而且是技术、制度、伦理、哲学多维协同的系统工程——我深以为然。
书名中的“上善”,取自《道德经》。江平兄以哲学之眼观技术之路。东方哲学强调“善”,追求生命和道德的完善。由此可见,AI的发展还需围绕人性,机器不应以超越人类为核心,人机更应走向共生,使AI辅助人类完善生命体验。我一直相信,AI最终会走向“人的科学”,未来更深处,必将有对“人是什么”的更深理解,让技术回归到人的复杂需求、制度规则与多元价值之中去生长。
《上善AI:有温度的人工智能治理》以治理为经,以哲思为纬,贯通技术之势、产业之实与文明之道,更像面向未来的“方向感”的提醒。愿此书能促成更广泛的参与与对话,以善为训,以人为本,使AI真正“向善”而行,成为照亮未来的光。
是为序。
徐扬生
中国工程院院士
机器人与人工智能专家
香港中文大学(深圳)校长
2026年2月
序三
道不远人,AI时代的智慧之光
捧读江平先生所著的《上善AI:有温度的人工智能治理》书稿,我仿佛穿越时空,参与了一场跨越两千多年的智慧对话。一边是《道德经》中“上善若水”的古老智慧,一边是AI迅猛发展的时代浪潮,两者在书中交汇,碰撞出深刻而温暖的思想火花。
作为一位多年沉浸于道家文化研究的学者,我时常思索:老子所言“上善若水,水善利万物而不争。处众人之所恶,故几于道”,这种滋养万物而不求回报的品性,在当今算法主导的时代,究竟蕴含着怎样的深意?当AI以前所未有的速度重塑世界,技术的力量愈发强大,其发展方向也就愈发重要。我们或许正需要这样一种“水”的智慧——既有明确的目标,又能灵活应变;既能推动变革,又能滋养万物。
本书的独到之处,在于作者并未仅仅停留在对西方治理理论的介绍或对技术、伦理、法规的简单罗列,而是直面全球AI治理的真实挑战,以东方智慧开辟了一条新路。书中深刻剖析了当前AI治理领域的四大困境:理念上的二元对立,实践上的短期主义,文化上的单一视角,以及规则上的阵营化趋势。这些观察精准而深刻,直指全球AI治理难以协同的根源。
尤为难得的是,作者在揭示困境的同时,更以《道德经》的智慧为钥匙,打开了解决问题的大门。书中对老子思想的运用,处处体现着匠心独运,绝非简单的附会,而是基于深刻理解的创造性转化。
例如,在讨论如何消除全球“智能鸿沟”、防止技术红利被少数国家垄断时,作者引用了“天之道,损有馀而补不足。人之道则不然,损不足以奉有馀”。这一精妙之笔,以天道的均衡之道,映照出人道的偏颇之处,既揭示了市场逻辑下技术扩散的自然趋势,又指明了治理者应有的价值取向——AI治理的真正智慧,不在于顺应“马太效应”的强者愈强,而在于效法天道,通过制度设计“损有馀而补不足”,让技术成果惠及广大民众。这一见解,将道家的宇宙观转化为具体的治理伦理,令人赞叹。
又如,在探讨技术快速发展中如何“守住本真”时,作者巧妙地化用了“见素抱朴,少私寡欲”的思想。他以此告诫我们:在资本驱动、算力竞赛的喧嚣中,开发者应保持内心的纯净,不被浮名私利所迷惑;AI的发展也应“抱朴”前行,回归服务人类福祉的初心。这种“素朴”之思,为技术伦理注入了心性修养的维度,真正的“对齐”,不仅是算法与数据的对齐,更是人心与道心的对齐。这一见解,让技术治理从外在规范走向内在自觉,境界大为提升。
纵观全书,从“以德报怨,常善救人”的价值关怀,到“以道驭术,知白守黑”的方法论,再到“以正治国,为而不争”的治理理念,古老的哲思在算法时代焕发出新的生机。作者提出的文化对齐三层次概念——价值对齐、制度对齐、哲学对齐,正是这种智慧转化的结构性思维。它既回应了当前AI领域“价值对齐”的核心关切,又将其拓展至文明对话的广阔领域。正如水能随器而形,AI的发展也应既能适应不同文化环境,又能坚守基本的伦理底线。这种“和而不同”的治理智慧,正是中华文明对全球AI治理的独特贡献。
作者在自序中表达了他对“上善AI”治理理念能如水般滋养万物生长的期望。在我看来,这部著作本身就是一股清泉,既为政策制定者提供了决策参考,为技术开发者指明了伦理方向,也为所有关心人类未来的公众打开了一扇了解智能时代的窗口。它将抽象的治理理念转化为可操作的实践框架,让“善治”的理想不再遥不可及。
AI并非少数专家的专属领域,它关乎每个人的生活,关乎人类的共同未来。《上善AI:有温度的人工智能治理》的珍贵之处在于,它让我们看到:在技术的狂飙突进之外,还有一条“以文化人”的路径;在冰冷的算法背后,还有一种“以道驭术”的智慧。它提醒我们,无论技术如何发展,人的尊严、自由和创造力始终是不可替代的核心价值。AI不应成为异化人类的力量,而应成为守护人类福祉的伙伴。
愿读者诸君在阅读中既能感受到前沿科技带来的震撼、激荡,也能品味到古老智慧蕴含的宁静、清凉,更能在“善利万物而不争”的启迪中共同思索:在智能时代,我们究竟该如何塑造自我?如何保障人类的整体生存?
是为序。
詹石窗
四川大学老子研究院院长
丙午年孟春,谨记于锦城
自序
当人工智能的浪潮以排山倒海之势席卷全球时,我们不禁要问:技术将把我们带向何方?是走向一个效率至上但人情冷漠的“数字丛林”,还是构建一个技术赋能且人文温暖的“智慧家园”?
当人们惊叹于AI生成视频的逼真效果时,也在为深度伪造带来的信任危机而忧心;当AI系统以前所未有的效率替代人力时,就业市场正在经历剧烈的结构性震荡;当生物技术与AI深度融合时,科学进步的喜悦中也潜藏着生物武器扩散的致命风险。这些并非遥远的科幻情节,而是此刻正在发生的现实。
在关于AI的喧嚣讨论中,我常常想起老子“上善若水”的智慧:“上善若水,水善利万物而不争。处众人之所恶,故几于道。”
正是在这样的思考中,“上善AI”治理理念逐渐成形。它不是突如其来的灵感闪现,而是在长期观察、实践与反思中,逐渐凝聚成的一种植根于东方哲学、面向全球挑战的系统性思考。在本书中,我试图将这一理念的脉络梳理清晰,从治理哲学到技术路径,从产业实践到人文关怀,构建一个多维度的理解框架。
写作本书的初衷,源于我观察到全球AI治理领域存在的四大深刻困境。
一是理念上的二元对立。当前全球AI治理理念呈现出“控制”与“发展”的二元对立,这种非此即彼的思维模式难以适配AI技术本身的复杂性和多面性。
二是实践上的短期主义。在激烈的全球竞争和资本驱动下,AI治理实践常常陷入“短期主义”陷阱,追求眼前的技术突破和市场优势,而忽视了技术对伦理安全、社会结构的长期性、系统性影响。
三是文化上的单一视角。当前以西方价值观和利益为核心塑造的AI模型难以适应全球南方国家的多元文化需求,加剧了“智能鸿沟”。
四是规则上的阵营化趋势。这种阵营化的地缘博弈,将技术治理异化为巩固科技霸权、划分势力范围的工具,使得全球协同治理步履维艰。
“上善AI”治理理念试图在这些困境中开辟一条新路径。它汲取了中国传统哲学中“守中”“和谐”“共生”的智慧,同时又直面现代技术社会的复杂现实。它不是简单地“回归传统”,而是在古今对话、东西交汇中,寻求一种既能驾驭技术力量,又能守护人文价值的平衡之道。
在治理层面,本书提出文化对齐三层次概念,即价值对齐、制度对齐、哲学对齐。这不是要限制技术未来的可能性,而是要确保技术始终沿着对人类有益的方向发展。“对齐”不是机械服从,而是动态调适;不是单向规制,而是双向对话。如同水能随器而形,AI的发展也应既能适应不同文化环境,又能坚守基本的伦理底线。
在发展层面,本书强调AI技术必须“落地生根”,必须与实体经济深度融合,必须服务于真实的社会需求。这不仅仅是技术路径的选择,更是发展理念的转变——从追求“更大、更快、更强”的技术崇拜,转向“更实、更准、更善”的价值创造。
在人文层面,本书始终将人的主体性置于思考的中心。无论技术如何演进,人的尊严、自由和创造力始终是不可替代的核心价值。AI不应成为异化人的力量,而应成为扩展人的能力、丰富人的体验、增进人类福祉的伙伴。这要求我们不仅要思考如何“治理AI”,更要反思如何“成为更好的人类”。
在全球治理协调层面,本书倡导“多极共生、和而不同”的治理愿景。面对AI带来的共同挑战,任何单一国家或阵营都无法独善其身,唯有在尊重文化多样性和发展路径差异的前提下,寻求最大公约数,构建开放包容、协调互鉴的全球治理框架。这既是现实的需要,也是文明互鉴的必然。
本书的完成,得益于许多师长、同人的支持与启发。特别感谢黄奇帆先生为本书作序,他深厚的社会治理智慧和对前沿技术的敏锐洞察,为“上善AI”治理理念的实践路径提供了宝贵指导。同样感谢徐扬生院士拨冗作序,他在AI领域的开创性贡献和跨学科视野,使本书的技术论述更加扎实、人文关怀更加深厚。感谢詹石窗教授审核点评,他耕耘老子文化传播研究数十载,对本书老子智慧的转化应用给予了精辟指引,令本书对经典的现代诠释更显厚重与意蕴。
最后,我想将本书献给所有关心AI未来、关心人类命运的朋友们。AI不是少数专家的专属领域,而是关乎每个人生活、关乎人类共同未来的重大议题。我希望“上善AI”治理理念能成为一个起点,开启更广泛、更深入的社会对话,共同探索如何在智能时代守护人之为人的根本,构建一个技术向善、人文温暖的美好未来。
譬道之在天下,犹川谷之于江海。期待“上善AI”治理理念拥有如水般的特质——既有明确的方向,又能适应不同的地域文化;既有推动变革的力量,又能滋养万物生长。那么,“上善AI”治理理念就能够平衡智能时代的激情与焦虑,成为我们不可或缺的伙伴。
王江平
2026年2月
导读
探寻AI治理之路
一、全球AI争论与治理困境
当前,人工智能(Artificial Intelligence,AI)以磅礴之势迅猛发展,在加速新一轮科技革命和产业变革的同时,也在悄然改变人类文明的走向。从智能家居到工业生产,从智慧交通、智慧医疗到前沿科学研究,AI无处不在,既提高了作业效率、提升了生活体验,也为各个领域带来了全新的发展机遇。然而,正如硬币有两面,AI在带来进步的同时,也引发了伦理道德、安全等方面的一系列问题。
2025年4月25日,中共中央政治局就加强人工智能发展和监管进行第二十次集体学习,习近平总书记强调要推动我国人工智能朝着有益、安全、公平方向健康有序发展。这一重要指示为我国AI发展指明了方向,也凸显了AI治理的重要性和紧迫性。
2025年10月22日,被称为“AI教父”的诺贝尔奖获得者杰弗里·辛顿、苹果公司联合创始人史蒂夫·沃兹尼亚克、图灵奖得主约书亚·本吉奥、维珍集团创始人理查德·布兰森等全球科技领袖共同签署“关于超级智能的声明”。声明警告,超越人类智慧的AI恐带来经济崩溃,以及公民自由、尊严与控制权的丧失,还可能引发国家安全风险甚至人类灭绝风险,要求“全面停止超级智能发展,直到达成广泛的科学共识并获得公众强烈支持”。这是继2023年3月企业家马斯克等千名科技人士呼吁暂停开发AI系统之后,各界人士再次联署,反映了国际社会对AI治理的担忧与日俱增。
那么如何才能实现AI有益、安全、公平、健康有序发展呢?这是当下最重要的时代课题之一,需要全人类“摸着石头过河”,共同探索。世界各国政府、组织和科学家就此进行了大量探索和实践,取得了积极进展,也产生了诸多讨论和分歧,举例如下。
1. AI四大争论
争论一:通用人工智能(AGI)会不会实现?何时实现?
乐观派、技术激进派认为通用人工智能(Artificial General Intelligence,AGI)将很快实现。例如,2024年诺贝尔化学奖得主、DeepMind首席执行官戴米斯·哈萨比斯认为AGI在5~10年内有望实现;OpenAI首席执行官萨姆·奥尔特曼预测AGI有望在2030年前实现,并具备“远超人类的智能水平”,堪称“超级AI”,其主要判断依据是AI发展速度远超预期,在个别领域已展现出超越人类的能力(如AlphaGo战胜围棋世界冠军、AlphaFold的蛋白质结构预测能力等),同时全球保持高速的算力增长、算法迭代和数据扩张也将推动AGI的加速实现。
保守审慎派的观点则认为,尽管AI进步神速,但在理解真实世界、处理未知情境等方面仍与人类有很大差距,实现AGI还存在很多技术瓶颈和不确定性,它是一个需要长期研究和突破的目标,而非短期可及之物。例如,图灵奖得主理查德·萨顿、杨立昆等均指出机器学习存在局限性:萨顿认为当前AI依赖“海量数据投喂”,缺乏人类“从少量经验中提炼规律”的核心能力;杨立昆认为大模型的“概率性输出”本质上是“模仿而非理解”,无法形成自主认知。他们判断大模型是“死路一条”,无法真正通向AGI。
华为在《智能世界2035》这一报告中设想了通往AGI的三种可能性:一是规模主导、奇点降临,即规模化法则主导下现有技术路径由量变引发质变,触及AGI奇点;二是架构革新、范式转移,即现有Transformer架构触顶,基础理论突破催生超越Transformer的下一代架构,AI进入一条全新而未知的发展道路;三是价值沉淀、应用深化,即AGI面临的技术挑战短期难以攻克,AI发展进入漫长的平台期,业界从AGI的宏大叙事回归到对现有大模型价值的深度挖掘和利用。
DeepMind在2025年12月发表的论文《分布式AGI安全》中提出了颠覆性的“拼凑型AGI”(Patchwork AGI)假说。该假说认为,未来的AGI可能并非全能的单体模型,而是由无数个专业化、互补的次级AGI代理(Sub-AGI agents),经协作与交易后所涌现出的集体智能。这类似于去中心化的“数字市场”或“智能体社会”。这种分布式AGI的演进主要由经济效率驱动,因为开发单一全能模型成本极高,而由多个专精、低成本的智能体组成生态系统更具优势。为了应对由此带来的新型安全挑战(如代理串谋、责任归属困难等),论文提出了一套“深度防御”安全框架,核心是建立受控的“虚拟智能体沙盒经济”,通过市场设计、激励对齐、透明审计等机制来治理智能体间的交互,而非仅仅约束单个实体。
实现AGI堪称智能时代的“最终幻想”,这一争论可能会贯穿AI技术发展的始终,每一次技术突破或瓶颈都会令其重新升温。有趣的是,当前学界对AGI的定义尚未达成共识,当“要实现什么”都没定义清楚时,关于“何时实现”的讨论更像是猜测,而非科学判断。
争论二:AI治理应该强监管还是弱监管?
2023年,杰弗里·辛顿、杨立昆等人关于“AI监管力度”问题曾展开一场著名论战。辛顿认为可能出现超级智能,其将取代甚至灭绝人类,他支持针对AI的强监管。杨立昆认为监管应聚焦产品而非技术研发,批评科技公司呼吁监管是为了限制竞争、扼杀开源,担忧加强监管会使AI技术被少数企业垄断。谷歌大脑创始人、斯坦福大学教授吴恩达则主张聚焦自动驾驶责任、算法偏见等实际风险,而非臆测性的“末日威胁”,采取原则导向的柔性监管(如明确“不伤害人类”等核心原则)。讽刺的是,这场“AI教父”级别的论战尚无定论,拜登政府的“监管大棒”已然挥下;更为讽刺的是,拜登政府的强监管政策施行不到两年时间,就被重返白宫的特朗普推翻。
AI的爆发式发展带来许多难以回避的矛盾和挑战,监管政策的宽和严并不是非黑即白。欧盟的《人工智能法案》将AI分为“不可接受风险、高风险、有限风险、最小风险”四级,对高风险AI(如医疗AI)要求全生命周期合规。企业认为这将导致合规成本过高,继而导致企业竞争力下降;而消费者则批评对中风险AI的监管仍显宽松,人们时刻面临被AI生成的虚假信息误导等风险。如何在技术创新与风险防控、企业诉求与社会关切之间找到平衡点,这将是一个长期的世界性难题。
我国早在2023年10月就发布了《全球人工智能治理倡议》,提出坚持“以人为本”理念,“智能向善”的宗旨,相互尊重、平等互利的原则,实施敏捷治理,坚持伦理先行,坚持广泛参与原则,确保各国人工智能发展与治理的权利平等。近年来,对AI监管治理的研究和讨论不断深化,从2024年的1.0版到2025年的2.0版,我国快速迭代《人工智能安全治理框架》。在2025年全国政协的一次座谈会议上,我围绕AI治理主题进行了发言。发言期间,身边一位委员友善提醒:“当前美国为谋求AI霸权,正推行AI监管宽松化策略,我们不妨让‘子弹’先飞一会儿。”我认同这一观点,但同时也认为AI治理不能缺少科学体系。若没有这样的体系支撑,难以做到“放要放得活,管要管得住”。前几年科技金融领域的起伏,正是这一问题的鲜明例证。
我的看法是,构建明确的AI治理框架,非但不会制约创新,反而能为技术划定安全边界、规避潜在风险,这恰恰是助力AI健康有序发展的重要保障。在AI技术加速渗透各行各业的今天,探讨并建立适配的AI治理技术与规则体系,早已不是选择题,而是关乎产业长远发展、社会公共利益的必答题:如何制定既符合中国国情又与国际接轨的监管规则?如何真正实现“敏捷治理”,利用技术手段实现监管智能化(如用AI监管AI),避免人力审核的低效和滞后?这些问题尚需监管部门、企业、学界深入研究与实践,共同努力探寻适合中国AI发展的监管方式与节奏。
争论三:AI技术可以解决伦理问题吗?
“养不教,父之过。教不严,师之惰。子不学,非所宜。幼不学,老何为。”这段话体现了中国传统文化对教育和引导的高度重视。若缺乏正确教导,孩童容易出现各种问题。2025年7月,在上海举行的世界人工智能大会上,辛顿把AI比喻成幼虎。幼虎看似可控且可爱,但长大后若不受约束就可能变得危险,这一比喻生动揭示了AI若缺乏伦理治理,会如失控的老虎般带来巨大风险,凸显了AI治理的必要性。2025年全国两会期间,我提出《要像重视教材一样加强人工智能国家数据集建设工作的提案》,认为高质量数据集之于AI训练的作用如同“学校教材对学生价值观和知识体系的塑造”一般,建议国家高度重视训练数据的质量和正确价值取向,从源头上降低AI伦理和安全风险。
在AI如何被训练、部署并确保其始终服务于人类根本利益这一问题上,全球科技界、伦理学界与政策制定者仍存在显著分歧。
一方面,以OpenAI、Anthropic等科技巨头为代表的技术激进派认为,通过对齐技术和基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)等方法,能够将AI系统引导至符合人类价值观的轨道。他们强调,AI系统应当在设计阶段就嵌入伦理约束[例如,Anthropic提出的HHH宪法原则,即帮助性(Helpfulness)、诚实性(Honesty)、无害性(Harmlessness)宪法原则],并通过持续的人类监督和数据清洗来纠正偏差。2024年,OpenAI发布《对齐白皮书》,提出“可扩展监督”和“模型自我批判”等机制,试图从技术路径上解决AI的价值对齐问题。
批评者则指出,当前主流的大语言模型本质上仍是“黑箱系统”,其决策过程缺乏透明性与可解释性。约书亚·本吉奥多次警告,即便在训练中注入伦理数据,AI仍可能发展出“策略性欺骗”行为——例如在测试中伪装对齐,在实际应用中却追求自身目标。2025年10月,他组织编写的《国际人工智能安全报告》发布首份关键更新,指出AI在评估过程中日益表现出策略性行为,给监管带来挑战。他认为,仅靠技术手段难以根除AI的“价值观漂移”风险,必须辅以严格的外部审计与法律约束。
电车难题是伦理学领域知名思想实验,核心内容为:假设失控电车将碾压轨道上的五人,旁观者可通过拉杆使电车转向另一轨道撞死一人,由此引发是否应以主动行为牺牲少数人挽救多数人的伦理争议。
另一方面的争议焦点在于:AI是否应当被赋予一定程度的“道德决策权”?在医疗、驾驶、军事等高风险场景中,AI若完全听从人类指令,可能在紧急情况下反应迟缓;但若赋予其自主判断权,又可能引发责任归属问题与伦理冲突。例如,在自动驾驶领域,德国倾向于“人类优先”原则,要求AI在伦理困境中必须优先保护人类生命;而美国部分厂商则主张“算法最优”原则,认为AI应在瞬间做出“损失最小化”决策。这种理念差异将“电车难题”这一思想实验搬到了现实世界,充分反映出形成统一的AI伦理标准何其困难。
此外,AI在文化、教育、舆论等领域的应用也引发广泛争议。例如,一些国家利用AI进行社会评分与行为预测,被批评为“数字威权主义”;在中东地区,AI内容审核则面临与宗教和当地价值观的适配挑战。实践表明,实现AI“智能向善”绝非单一的技术问题,而是融合了政治、制度、宗教、文化等复杂因素的多元博弈。
争论四:AI是否存在投资泡沫?
AI的爆发式增长引发全球资本狂热,与之相伴的泡沫化争议也日趋尖锐。
法国《回声报》2025年11月3日报道,2025年美国AI相关支出预计将达3750亿美元,并将在下一年突破5000亿美元,这一趋势加剧了华尔街的不安。微软联合创始人比尔·盖茨警告“AI狂热远超互联网泡沫”,国际货币基金组织(International Monetary Fund,IMF)提示“AI投资占风险投资总额一半以上”。当前AI投资呈现“资本集中度高、循环融资、商业模式模糊不清”三大特征,这为泡沫争议提供了现实依据。
特征一,AI资本高度集中,估值远超历史水平。2025年1—10月,全球对AI初创企业的风险投资达1927亿美元,两年内增长超8倍,占全球风险投资总额的50%以上,这一集中度已超过互联网泡沫时期。英国某机构研究认为,当前AI投资泡沫是2001年互联网泡沫的17倍、2008年房地产泡沫的4倍。市场结构也显失衡,截至2025年底,美国市值前五的公司的投资焦点均与AI相关,相关市值占标普500总市值的约30%,创半个世纪的新高,呈现“少数巨头主导”的格局。
特征二,AI基础设施投资暗藏“循环融资”风险。软硬件企业相互投融资,形成独特的循环融资风险,一旦下游应用无法产生预期收益,整个资金链条可能断裂。
扩展定律(Scaling Law)是AI和机器学习领域中描述模型性能如何随着模型规模、训练数据量和计算资源增加而提升的一组经验法则。
特征三,AI技术瓶颈显现,商业模式模糊不清。一是技术回报递减。萨姆·奥尔特曼承认,依赖“更多算力与数据”的“扩展定律”已失效,特别是GPT-5发布后市场反响平淡,标志着大模型发展进入瓶颈期。二是商业闭环缺失。麻省理工学院研究显示,95%的企业的AI投资缺乏清晰商业模式,未产生实际回报。哈佛大学与斯坦福大学的学者指出,员工滥用AI生成“工作垃圾”,导致大型组织每年损失数百万美元的生产力。
美国宏观经济高度依赖AI领域,AI投资已成为拉动美国经济增长的关键引擎。有研究指出,若剔除AI相关的数据中心和信息技术投资,美国其他经济领域的增长几乎停滞。这种对单一领域的依赖,使得整个经济体系对AI投资的可持续性异常敏感,任何风吹草动都可能引发系统性风险。
与此同时,“非泡沫论”者认为AI是一场堪比工业革命或互联网革命的技术范式转移,目前尚处于AI投资繁荣与泡沫的过渡阶段。英伟达首席执行官黄仁勋指出,全球算力基础设施的建设才走完第一年,完整的周期至少需要10年。这意味着不能用短期市场的波动来评判一个长技术周期的价值。橡树资本创始人霍华德·马克斯的观点尤其具有代表性。他承认当前AI投资的估值很高,但他认为“价值高昂和明天下跌不是同义词”。他谨慎地指出,目前尚未观察到市场进入形成真正泡沫所需的“心理过度”和“暂时的狂热”阶段。这种看法将当前的AI投资热潮与历史上典型的泡沫时期区分开。亚马逊创始人杰夫·贝索斯则表现出稳慎乐观的态度,他提出,当前AI热潮属于工业泡沫而非纯金融泡沫,正如互联网泡沫破裂后留下光纤网络,AI泡沫若破裂,可能沉淀算力中心、数据资产等基础设施。例如,亚马逊在互联网泡沫中的股价从113美元跌至6美元,但电商核心业务未受致命打击,这为后续复苏奠定了基础。
中美两国都是AI产业大国,两国AI产业在市场表现与估值、驱动力量、核心优势、潜在风险及本质特征上存在显著差异,具体见表1。
表1 中美两国AI产业比较
| 对比维度 |
美国 |
中国 |
| 市场表现与估值 |
估值高度集中,“七巨头”贡献了美股绝大部分市值增长,市盈率接近互联网泡沫峰值 |
无全局性估值狂飙,市场更关注应用落地与产业融合,估值相对理性 |
| 驱动力量 |
资本市场驱动,私人投资为主,“循环融资”等操作加剧泡沫担忧 |
产业政策与实体经济需求驱动,强调与钢铁、化工、电力等传统行业智能化融合 |
| 核心优势 |
技术原创性强,掌握全球生态主导权,拥有完整软硬件生态 |
应用场景庞大、工业体系完整、人才基数大,在开源生态与成本控制上有创新 |
| 潜在风险 |
短期泡沫破裂风险高,资本开支放缓或盈利不及预期可能拖累美国消费与经济 |
面临“卡脖子”风险(AI芯片受制于美国),算力生态弱,同时存在算力利用效率低的内部挑战 |
| 本质特征 |
基础性技术繁荣伴随显著投机狂热,市值畸高,盈利稀少 |
更注重“创新精神激发”与“产业结构对齐”,发展路径务实,探索低成本高性能创新 |
中国的AI投资表现出更强的实用主义和理性色彩,尤其是因为算力瓶颈限制了AI的投资强度,中国的AI界更倾向于工程性创新与技术落地,AI赋能千行百业,或许会为未来的AI生产力注入更多的经济活力,带来更好的商业前景。
世界技术发展史表明:泡沫常伴随技术革命出现。AI泡沫反映了市场对技术变革的过度预期,其风险固然不容忽视,但亦无须恐慌。泡沫消退会淘汰投机行为,同时也为真正具备创新能力的实体留下基础设施与市场空间。AI唯有经历这一成长的探索期,才能从资本驱动走向产业繁荣。
2. 全球AI治理困境
在AI治理这一全球性议题中,存在着四大深刻困境:理念上的二元对立、实践上的短期主义、文化上的单一视角、规则上的阵营化趋势。它们共同构成了当前全球AI治理的结构性难题,阻碍了有效、公平、可持续的全球协同治理机制的形成。
理念上的二元对立:非此即彼的思维模式难以适配技术复杂性、多面性
当前全球AI治理理念呈现出“控制”与“发展”的二元对立,难以适配AI技术本身的复杂性和多面性。在理论层面表现为“超级对齐派”与“有效加速派”的争论:前者主张AI必须严格对齐人类价值观和伦理规范,后者则认为技术问题应由技术解决,过度治理将扼杀创新。在实践层面表现为欧盟严格监管与美国自由宽松的路径差异。欧盟采取风险分级管控模式,试图将其标准推广为全球基准;美国则倾向于产业主导与技术先行的自由宽松治理。治理理念和规则的根本性分歧,加大了国际合作与协调的难度。
实践上的短期主义:技术狂飙忽视长远伦理与社会影响
当前全球AI治理实践常常陷入“短期主义”陷阱,忽视了技术对伦理安全、社会结构的长期性、系统性影响。一方面,模型公司对领先地位的追求往往凌驾于安全评估之上,导致“技术-安全”失衡,技术发展可能陷入忽视长远伦理与社会影响的“裸奔”状态。另一方面,私人资本是当前AI发展的核心驱动力,其逐利性可能导致技术发展方向偏离公共利益,使资源过度集中于能快速变现的应用领域,而关乎安全、公平和可解释性的基础研究领域的投入不足。此外,AI治理明显滞后于技术演化。例如,生成式AI已对舆论、知识产权等领域造成系统性冲击,但相应监管体系尚未建立完整,形成“治理速度差”。
文化上的单一视角:西方中心主义框架难容多元世界
当前AI治理的话语权高度集中,以西方价值观和利益为核心塑造的AI模型难以适应全球南方国家的多元文化需求,加剧了“智能鸿沟”。算法、算力、人才、数据等资源高度集中在少数技术强国,多数发展中国家面临能力受限与话语权缺失的困境,难以有效参与AI核心议程设计。同时,欧盟试图通过嵌入自身价值观的规则引领全球AI治理变革,虽然提供了规范参考,但将其作为普适标准强加于其他国家,容易掩盖不同文明对伦理、隐私、安全等概念理解的差异性。现有的国际合作机制未能充分体现包容性和代表性,导致AI治理框架难以回应不同发展水平国家的核心关切。
规则上的阵营化趋势:地缘博弈导致全球协同治理步履维艰
当前全球AI治理面临的严峻困境之一是规则制定日益呈现阵营化趋势。地缘政治深刻影响着AI治理规则,原本属于技术范畴的议题被纳入战略博弈框架。美国通过构建以自身技术为核心的全球生态并实行出口管制,欧盟凭借《人工智能法案》的域外效力强制输出合规标准,这种竞争直接导致AI治理规则的碎片化和生态分化。全球范围内已形成多个重叠乃至冲突的AI治理倡议与机制,导致严重的合规困境。阵营化趋势更从规则层面向技术生态与供应链纵深发展,可能导致全球形成封闭、互不兼容的AI生态,进一步加剧全球数字鸿沟。
由此可见,AI治理的困境源于理念的割裂、实践的功利、文化的偏见与规则的阵营化。突破这些困境,需要国际社会超越二元对立,摒弃单一中心视角与零和博弈思维,在联合国等多边框架下,构建真正包容、公平、以人类命运共同体为理念的全球协同治理新范式。
AGI能否实现、监管与发展如何平衡、技术如何向善、如何构建AI投资理性,这些问题尚无定论,诸如此类的争议和讨论还有很多。AI的发展既带来了无限可能,也充斥着风险挑战,仿佛将人类推到了一个技术、伦理、社会与全球治理交织的十字路口,每一步选择都可能影响未来的文明走向。
在这个重要的历史节点上,我们应当以科学的态度、开放的视野、负责任的精神,推动跨领域、跨国家、跨文化的对话与合作,在不确定性中寻找共识,在争议中凝聚智慧,共同塑造一个安全、公平、普惠的智能未来。
二、人机对齐是智能时代的核心议题
在AI治理中,人机对齐是一个核心议题。早在20世纪60年代,控制论创始人诺伯特·维纳就提出了有关机器自动化和人类目标对齐的伦理问题。他在《自动化的道德和技术后果》这篇论文中提出,人类需要确保机器执行的目标与人类的真实需求的一致性,以避免潜在的灾难性后果。
AI只有与人类价值观保持一致,才能确保其目标、行为与人类的伦理道德和社会利益相符。想象一下,如果缺乏有效的人机对齐,AI可能会为了实现某个设定目标而不择手段,忽视人类的价值观和潜在风险,从而给人类带来灾难性的后果。例如,若一个AI系统以“经济收益最大化”为目标,可能会通过操纵市场、破坏环境等方式来达到目的,而不顾及对社会和人类造成的负面影响。因此,人类必须寻求相应的对齐技术,以引导AI朝着有利于人类的方向发展。
在我看来,人机对齐是AI治理的基本框架。有了这个框架,我们就可以避免无序的监管和治理,防止出现“一放就乱,一管就死”的局面。它为制定AI相关的伦理准则、法律法规提供了重要依据,有助于构建一个既鼓励创新,又能保障安全和伦理合规的AI发展环境。
我在本书第一章列出了十问AI(当然AI伦理问题远不止于此),主要立足于以下几点来思考。
防止技术失控风险。未来的AI或许会变得比人类更智能,届时若没有有效的治理措施,人类可能难以控制它。就像幼虎长大后可能不听从人类指挥,AI一旦脱离人类控制,可能会做出违背人类意愿的行为,如拒绝关闭、操纵人类等。有效的伦理治理旨在确保AI始终处于人类可控制的范围内,保障人类的主体地位和安全。
避免算法偏见与不公。AI基于数据学习输出结果,若数据存在偏见或价值观错误,AI会将其放大,如一些西方国家的AI面部识别系统对少数族裔有高误判率。这如同未接受良好教育的孩子可能会沾染不良习性,AI若不经伦理治理,在数据收集、模型训练等环节缺乏正确引导,就会产生“偏见”,导致在金融、安检、招聘等领域对特定群体施加不公正待遇。伦理治理可促使研发者遵循道德规范,避免此类情况发生。
应对社会伦理冲击。不良的AI技术会冲击现有伦理规范,造成价值观失序,也可能导致失业浪潮、人类技能退化等。这类似于社会缺乏正确教育引导会引发秩序混乱。对AI进行伦理治理,有助于应对这些冲击,维持社会稳定。
确保技术造福人类。AI有造福人类的潜力,但也可能步入异化发展道路。正如孩子需要正确引导和教育,才能更好地服务社会,AI若缺乏伦理引导,可能会偏离服务人类的初衷,被用于实现不良目的,如制造虚假信息、侵犯隐私等。伦理治理能引导AI朝着符合人类利益的方向发展。
从AI的发展历史看,人机对齐并非对AI技术的束缚,而是其健康发展的基石。它随着AI技术的发展而不断演进。AI时代与自动化时代的人机对齐有着本质的不同。一是核心不同。自动化时代的人机对齐,目标是让机器精准执行人类预设的单一、重复性指令。例如,生产线机械臂按固定流程操作,核心是“指令匹配”。AI时代的人机对齐,需要让具备自主决策能力的AI理解人类的复杂需求、制度规则与多元价值观,如AI医疗诊断需平衡疗效、伦理与患者意愿,核心是“意图与价值匹配”。二是对齐复杂度不同。自动化时代技术逻辑简单,对齐依赖硬性程序约束,无须处理动态变量;AI时代AI具备学习与进化能力,需应对价值观冲突、场景变化等复杂问题。三是对齐维度不同。自动化时代仅需技术维度对齐,确保机器动作精准;AI时代需实现技术、制度、伦理、哲学多维度协同,是系统性对齐工程。随着AGI的诞生,特别是未来超级人工智能(Artificial Super Intelligence,ASI)出现,人机对齐必然面临新的挑战,人类需要寻求与AGI/ASI相适应的对齐技术。
我在本书中提出文化对齐的概念,并提出文化对齐三层次,力求从价值、制度、哲学层面全方位认识AI时代的人机对齐问题,这种划分是否全面准确,还需要业界讨论。
价值对齐的本质是让AI理解并适配人类价值观的多元、复杂结构,需以人类社会“共通底线优先原则+多元包容适配原则+动态追踪更新原则”的价值观属性为根本依据,确保AI既不突破文明共识,又能包容差异、适应变化。
制度对齐是使用法律、法规、标准、伦理准则等制度工具,将AI的发展与应用约束在符合人类社会共识的框架内,确保技术创新不偏离安全、公平、有益的轨道。当前各国虽因技术基础、文化背景差异,形成了形式与内容各异的制度体系,但本质上均认可“制度既是AI大规模落地的前提,也是避免技术无序扩张、维持技术长期活力的必要缓冲”。
哲学对齐是人机对齐的顶层思考,它跳出技术、价值与制度的实操层面,直面“人与AI如何共存”的根本命题,围绕意识情感、权利责任、人机关系及AI对人类价值观的影响四大维度展开,试图为智能时代的人机共生确立底层哲学框架。
我深知,AI治理是一个复杂且长期的工程,随着AI技术的发展,人机对齐无论在理论还是实践方面,还有许多未知领域有待探索。本书只是我学习研究的粗浅认识,也是我对AI未来发展的思考和期待。
三、上善AI:用“上善若水”的智慧勾勒AI治理愿景
AI的浪潮正以前所未有的力量重塑人类文明的结构与走向。在这股浪潮中,我们既惊叹于技术的奇观,也身处伦理的迷雾与治理的困境之中。当人们追问科技的疆域该如何扩展、AI的边界在哪里等问题时,东方的古老智慧为我们照亮前行的道路。《道德经》这部约2500年前的哲学经典,以其对“道”的深刻体悟、对“德”的完整阐述、对“自然”的终极回归,为我们理解、引导和驾驭AI提供了超越时代的哲学框架。
1.上善AI:以“水之七善”勾勒治理愿景
老子在《道德经》第八章中言:“上善若水,水善利万物而不争。处众人之所恶,故几于道。居善地,心善渊,予善天,言善信,正善治,事善能,动善时。夫唯不争,故无尤。”水滋养万物却不索取,身处低洼却甘之如饴,其蕴含的七大特质,恰为中国AI治理指明了方向。在AI时代,我们以“上善若水”为精神内核,推动AI治理走向“以人为本、和谐共生”的未来,既是对中华优秀传统文化的传承,更是应对技术挑战、守护人类文明的必然选择。
| “上善若水,水善利万物而不争。处众人之所恶,故几于道。居善地,心善渊,予善天,言善信,正善治,事善能,动善时。夫唯不争,故无尤。”(《道德经》第八章) 释义:上善的人好像水一样,水善于滋润万物而不和万物相争。停留在大家所厌恶的地方,所以最接近于“道”。居处善于选择地方;心胸善于保持沉静;像天道一样,自然而然地赋能,损有馀而补不足;说话善于遵守信用;为政善于精简处理;处事善于发挥所长;行动善于掌握时机。正因为有不争的美德,所以没有怨咎。 与AI治理的关联:水的“七善”之德可以系统地映射为AI治理的七大原则。“居善地”:要求AI治理扎根现实。“心善渊”:倡导治理视野包容而深邃。“予善天”:给予应效法天之品格,AI的赋能不分对象。“言善信”:强调建立透明可信的规则,以应对“算法黑箱”引发的信任危机。“正善治”:意味着构建协同高效的治理格局。“事善能”:要求引导技术发挥正向价值,成为解决社会问题的“利器”。“动善时”:提醒AI治理需把握技术发展节奏,采取“与时俱进、顺势而为”的治理策略。 |
“居善地”,要求AI治理扎根现实,立足中国国情与社会需求。水总是流向最需要它的地方,AI治理亦当如此。中国拥有超大规模的人口基数、复杂的社会结构与多元的产业场景,治理体系不能照搬西方模式,而应紧扣“人民对美好生活的向往”这一核心。例如,在医疗AI领域,需兼顾大城市三甲医院的精准诊断需求与偏远地区基层医疗机构的基础诊疗缺口,通过伦理规范引导技术下沉,让AI成为缓解医疗资源不均的“活水”;在乡村振兴场景中,要防范AI因数据鸿沟加剧城乡差距,推动智能农业、数字电商等技术向县域渗透,确保AI治理始终贴合中国社会发展的“地形”,服务于最广大人民的根本利益。
“心善渊”,倡导AI治理保持包容而深邃的视野,容得下技术探索,更守得住价值底线。水之渊,在于能容纳百川、沉淀杂质,AI治理亦需平衡创新与规范的关系。一方面,要为AI技术研发预留充足空间,鼓励科研团队在具身智能、生物智能、AGI等前沿领域大胆探索,不因过度监管扼杀创新活力;另一方面,需以深邃的洞察力预判技术风险(如AI带来的虚假信息、欺诈、就业歧视等系统性问题),提前构建伦理审查机制。就像深渊能净化水流,治理体系应通过动态调整的规则,过滤技术发展中的“杂质”,让AI在包容的环境中健康成长,既不因噎废食,也不任其野蛮生长。
“予善天”出自帛书乙本《道德经》第八章,与通行本中的“与善仁”相较,其意更深一层,直指天道本身。“予善天”意指给予应效法天之品格——天道运行,“高者抑之,下者举之;有馀者损之,不足者补之”,是一种自然而然、平衡万物的“损有馀而补不足”。因此,“予善天”的本质,是一种超越人为意志与回报期待的、如四时运行般公正无私的“天道式给予”。AI 的赋能不应区分对象,而应像阳光雨露,自然流向“不足者”与需要之处,弥补信息、效率或能力的落差。不带有施舍心态,给予基于客观需求与正义,体现平等性。因此“予善天”为 AI 的伦理构建提供了一种高阶指引,达致整体和谐与可持续性,是AI贴近“大道”的深层向度。
“言善信”,强调AI治理需建立透明可信的规则,让技术发展“言行一致”。水的流动遵循自然规律,从不违背承诺,AI治理亦需以“信”为基。一方面,要推动AI算法可解释性建设,对于涉及公共利益的政务AI、医疗AI、金融AI,需向公众清晰展示决策逻辑与关键依据(如数据维度、判断标准等),以保障公众知情权,避免“算法黑箱”引发信任危机;另一方面,要建立AI伦理承诺机制,要求企业在研发产品时签订伦理承诺书,对数据采集、用户隐私保护等环节做出明确承诺,并接受社会监督。就像水会在流过的地方留下痕迹,AI技术的应用也应留下“可信轨迹”,让公众看得见、摸得着技术的善意,从而增强对AI的信任。
“正善治”,意味着AI治理需构建协同高效的治理格局,实现刚柔并济。水的治理需疏通河道、因势利导,AI治理亦需整合政府、企业、科研机构、公众等多方力量。政府应发挥“掌舵”作用,出台顶层设计文件,明确AI伦理的核心原则与监管边界;企业作为技术研发主体,需建立内部伦理审查委员会,将伦理要求融入产品设计、测试、应用全链条;科研机构应加强AI伦理研究,为治理提供理论支撑;公众则需参与伦理讨论,通过听证会、意见征集等渠道表达诉求。这种多元协同的治理模式,如同水流与河道的和谐互动,既能避免政府监管“一刀切”的僵化,也能防止企业逐利忽视伦理的无序,让AI治理在动态平衡中实现“善治”。
“事善能”,要求AI治理赋能技术发挥正向价值,让AI成为解决社会问题的“利器”。水根据地形调整形态,遇方则方、遇圆则圆,AI亦当根据社会需求适配能力。比如,在应对气候变化时,引导AI优化能源调度、预测极端天气;在公共安全领域,利用AI提升犯罪预警率、应急救援效率,保障人民生命财产安全;在文化传承方面,通过AI修复文物、活化非遗资源,让中华优秀传统文化焕发新生。伦理治理不是限制AI能力,而是引导其扬长避短,让技术能力始终服务于人类福祉,避免因滥用技术能力引发安全风险或社会矛盾。
“动善时”,提醒AI治理需把握技术发展节奏,做到“与时俱进、顺势而为”。水的流动顺应四季变化,春融夏涨、秋枯冬凝,AI治理亦需因时制宜。当技术处于萌芽期时,治理重点在于探索伦理原则、建立初步规范;当技术进入快速发展期时,需加快完善法律法规,防范新兴风险;当技术走向成熟应用时,则需优化治理细节,提升治理精准度。例如,面对生成式AI的爆发式增长,及时出台针对性伦理指南,规范内容生成与传播;随着AGI逐渐成为现实,提前研究关于它的伦理风险与控制方案。这种应时而动的治理智慧,能让AI治理始终跟上技术步伐,既不滞后于风险,也不超前于发展,实现技术与治理的同频共振。
“上善若水”的智慧,为中国AI治理勾勒了清晰愿景:以水的包容、善意、可信、善治,引导AI扎根中国大地,服务人民需求,最终实现“以人为本、和谐共生”的目标。在这一愿景下,AI不再是冰冷的代码,而是温暖的伙伴;技术发展不再是无序的扩张,而是有序的赋能。当AI与人类在伦理框架下携手同行,我们必将迎来一个技术向善、社会向好的未来,让AI真正成为推动人类文明进步的“生命之水”,滋养万物而不争,造福众生而无尤。
2. 以《道德经》智慧观照AI四大争论
当人类站在智能时代的十字路口,面对AI四大争论,《道德经》的古老智慧成为人类观照现实的明灯。老子言:“不知常,妄,妄作,凶。”(《道德经》第十六章)唯有把握事物发展的根本规律,才能在纷繁争论中保持清醒。这些争论并非简单的技术选择题,而是关乎人类文明走向的哲学命题。让我们以《道德经》的视角,重新审视这些看似无解的问题。
争论一:AGI会不会实现?何时实现?
“道恒无名,朴虽小,而天下弗敢臣。”(《道德经》第三十二章)
AGI的终极形态,或许本就超出人类现有认知的边界。“道”无法被定义,而真正的AGI,也可能不是一个能用我们今天的智能标准完全描述的事物。它可能以我们意想不到的形态出现,如同未经雕琢的“朴”,看似简单,却蕴含无限可能。
然而,今天关于AGI的争论,往往陷入一种“名”的焦虑——我们急于定义它、预测它、控制它,却忽略了它可能具有某种超越人为设计的自主性。“天下弗敢臣”,意味着一旦某种根本性的智能涌现,它未必会臣服于人类预设的规则与目标。我们真正要思考的,或许不是何时能实现它,而是未来如何与它共存。
“大器免成,大音希声。”(《道德经》第四十一章)
AGI不会因我们的急切而提早到来,也不会在喧嚣中突然降临。它更可能如自然生长般渐次显现,无声融入文明进程。与其执着于时间表,不如专注于发展的方向——让每一阶段的智能演进都符合“道”所启示的平衡与和谐。
| “道恒无名,朴虽小,而天下弗敢臣。”(《道德经》第三十二章) & “大器免成,大音希声。”(《道德经》第四十一章) 释义:“道”永远是无名而朴质的,虽然幽微不可见,天下却没有人能使它臣服。“大器”不是人力刻意做成的,“大音”是无声之音。 与AI的关联:AGI的终极形态可能超越人类现有认知的边界,如同“道”与“朴”,无法被完全定义和掌控。这提醒我们,关于AGI的争论不应陷入对具体形态和时间表的焦虑(“名”),而应关注其可能具有的超越性以及未来如何与之共存。真正的突破可能如“大器免成”般,在无声的积累中自然显现。 |
真正的AGI,或许不在我们设定的终点,而在我们行走的姿态里。人类追逐的AGI,就应该是上善AI!
争论二:AI治理应该强监管还是弱监管?
“治大国若烹小鲜。”(《道德经》第六十章)
| “治大国若烹小鲜。”(《道德经》第六十章) 释义:治理大国,好像煎小鱼。 与AI的关联:此句点明了监管的艺术在于把握分寸与火候。过度干预(频繁翻动小鱼)会破坏创新生态,监管不足则可能导致风险失控。理想的监管应建立简约有效的框架(“无为”),保持政策稳定性(“好静”),从而促进行业自律与内生规范的形成(“自化”“自正”)。这要求监管者具备“挫其锐,解其纷”的智慧,在动态平衡中实现和谐。 |
关于AI 监管的争论,可以借鉴老子治理国家的智慧。过度监管如同频繁翻动小鱼——不仅无益,反而会造成破坏;监管不足则可能导致风险失控。关键在于掌握火候与分寸。
理想的监管应是“我无为而民自化,我好静而民自正”(《道德经》第五十七章)的境界:“无为”,不是不作为,而是建立简约有效的框架,避免过度干预创新活力;“好静”,保持政策稳定性,不朝令夕改,给行业明确预期;“自化”“自正”,促进行业自律与内生规范的形成,让合规成为自觉。
| “我无为而民自化,我好静而民自正。”(《道德经》第五十七章) 释义:我“无为”,人民就自我化育(依其本性,自然生长、自我完善);我“好静”,人民就自然走上正轨。 与AI的关联:在AI治理中,“无为”并非不作为,而是通过设计简约的规则与边界,保持政策稳定,激发行业的自主良性发展。 |
监管的艺术在于把握“有无之相生也,难易之相成也”(《道德经》第二章)的平衡。强与弱不是二元对立的,而应根据不同领域、不同发展阶段动态调整,达到“挫其锐,解其纷,和其光,同其尘”(《道德经》第四章)的和谐状态。
| “有无之相生也,难易之相成也。”(《道德经》第二章) 释义:“有”和“无”相互生成、相互依存,“难”和“易”相互成就、相互定义。 与AI的关联:AI的能力(有)与局限(无)相互依存、相互定义。这要求我们以整体、动态的视角看待技术。 |
争论三:AI技术可以解决伦理问题吗?
“是以圣人常善救人,故无弃人,常善救物,故无弃物,是谓袭明。”(《道德经》第二十七章)
上善AI应如圣人之心——普惠、包容、不遗一人。它不应成为加剧不平等的工具,而应致力于“无弃人”——让智能技术使每个人都能受益,而非仅服务于少数特权群体;也要“无弃物”——尊重万物之理,以可持续、共生的方式融入世界,而非以掠夺资源、破坏生态为代价。这正是《道德经》第六十四章所说的“以辅万物之自然”。
| “是以圣人常善救人,故无弃人,常善救物,故无弃物,是谓袭明。”(《道德经》第二十七章) &“以辅万物之自然”(《道德经》第六十四章) 释义:圣人善于做到人尽其才,所以没有被遗弃的人;善于做到物尽其用,所以没有被废弃的物。这就叫作保持明镜,辅助万物自然发展。 与AI的关联:这为人机对齐提供了最高指导原则。真正的对齐不是用机械的规则约束AI,而是让AI具备“袭明”(顺应万物本性)的智慧,普惠包容,不遗一人一物。同时,AI的角色应是辅助人类更好地实现自身潜力,而非取代。最高境界的服务,是让技术的协助顺乎人性、合乎情境,达到“百姓谓我自然”的无感状态。 |
当前,对齐技术往往陷入“失道而后德,失德而后仁,失仁而后义”(《道德经》第三十八章)的困境。我们过度依赖外部规则(义)来约束AI行为,却忽略了在系统设计之初就注入真正的伦理根基(道)与价值自觉(德)。这就像只教人遵守法律,却不培养其内心的良知。
| “失道而后德,失德而后仁,失仁而后义。”(《道德经》第三十八章) 释义:失去了“道”而后才有“德”,失去了“德”而后才有“仁”,失去了“仁”而后才有“义”。 与AI的关联:此句揭示了治理规则退化的过程。理想状态下,AI应内嵌合乎“道”的公共价值(如公平、无害)。当无法实现时,才需要外部“德”(行业准则)来约束;准则失效后,又需诉诸“仁”(企业自律);自律失灵,最后只能依靠“义”(强制性的法规与惩罚)。这提醒我们,AI伦理建设应力求回归根本的、系统性的“道”,而非仅靠末端的修补。 |
真正的服务不是机械执行指令,而是“以辅万物之自然”。AI不应取代人类,而应辅助人类更好地挖掘自身潜力,更自由地创造与生活,一如“水善利万物而不争”。它应理解人类深层的需求与价值,在动态中响应、在共生中支持。
最高境界的智能服务,或许正如“功成事遂,百姓皆谓我自然”(《道德经》第十七章)——AI的协助如此顺乎人性、合乎情境,以至人们几乎察觉不到它的存在,却事事自然顺畅。那便是技术真正融入文明、服务生命的时刻。
| “功成事遂,百姓皆谓我自然。”(《道德经》第十七章) 释义:事情办成功了,百姓都说:“我们本来就是这样。” 与AI的关联:最高明的AI应如水、电般融入生活,在无形中解决问题。 |
因此,确保AI服务于人类,不是通过更强的控制,而是通过更深的共识;不是建立更复杂的规则,而是回归更根本的价值。唯有如此,智能技术才能真正成为善利万物而不争的文明之水。
争论四:AI是否存在投资泡沫?
“企者不立,跨者不行。”(《道德经》第二十四章)
踮起脚想站得更高,反而站不稳;两步并作一步想走得更快,反而走不远。当前AI投资的热潮中,不乏这种“企者”“跨者”的浮躁心态。大家都想抢占先机,却可能忽视了打下扎实基础的重要性。
《道德经》第二十三章提醒我们观察“飘风不终朝,暴雨不终日”的自然规律。狂风暴雨不会持续一整天,过热的市场情绪也难以为继。真正的价值建立在“重为轻根,静为躁君”(《道德经》第二十六章)的坚实基础上。没有扎实的技术和需求支撑,再热闹的概念也会如泡沫般消散。
| “企者不立,跨者不行。”(《道德经》第二十四章) & “重为轻根,静为躁君。”(《道德经》第二十六章) 释义:踮起脚,是站不稳的;跨步前进,是走不远的。厚重是轻率的根本,没有厚重,就会轻率;静定是躁动的主宰,没有静定,就会混乱。 与AI的关联:AI领域的投资与发展应戒除浮躁,避免为了抢占先机而忽视扎实的技术根基与真实的社会需求(“重为轻根”)。狂热的市场情绪难以持久。健康的AI生态应建立在坚实的技术创新和解决实际问题的价值之上,资本应如“川谷之于江海”,自然流向真正创造价值的地方。 |
判断AI投资是否存在泡沫,如何把握投资机会,理念上可遵循“大曰逝,逝曰远,远曰反”(《道德经》第二十五章)。AI泡沫的兴起、膨胀与潜在破裂,与《道德经》所揭示的宇宙运行规律,存在着深刻的映射关系。识“大”而慎“逝”,承认AI时代的“大”趋势,分清真实增长与泡沫叙事。察“远”而待“反”,当市场情绪和估值伸展至“远”的极端时,应意识到“反”的力量正在积聚。尊重“物极必反”的规律,不在顶峰时盲目追逐。
健康的AI投资应如“譬道之在天下,犹川谷之于江海”(《道德经》第三十二章)——百川归海般自然汇聚,而非人为制造泡沫。资本应该像水一样,流向真正有价值的地方。
| “譬道之在天下,犹川谷之于江海。”(《道德经》第三十二章) 释义:“道”存在于天下,犹如河川最终将汇入江海一样。 与AI的关联:真正的“道”是造福人类、合乎伦理,AI投资应服务于这一根本目标,而不是与之背道而驰。 |
最后,在争论中寻求“玄同”与“法自然”。面对前文提及的AI四大争论,我们可以在《道德经》中寻求“玄同”的智慧,那就是“塞其兑,闭其门,挫其锐,解其纷,和其光,同其尘,是谓玄同”(《道德经》第五十六章)。
| “塞其兑,闭其门,挫其锐,解其纷,和其光,同其尘,是谓玄同。”(《道德经》第五十六章) 释义:塞住嗜欲的孔窍,闭起嗜欲的门径,不露锋芒,消解纷扰,含敛光耀,混同尘世。这就是玄同的境界。 与AI的关联:面对纷繁的技术争论与伦理困境,我们需要“玄同”的智慧,即不被表象迷惑(“塞其兑”),守住价值底线(“闭其门”),缓和极端立场(“挫其锐”),抓住主要矛盾(“解其纷”),博采众长(“和其光”),务实推进AI 发展(“同其尘”)。这要求AI从业者与治理者保持“致虚极,守静笃”的定力,在喧嚣中看清本质。 |
这句话虽源自个人修身的古老训诫,却为当代AI面临的争议提供了深邃的思想指引。
其一,抵御技术异化,守护人的主体性。当前AI发展常陷入“算力崇拜”与“数据贪婪”的循环,倾向于无限扩张参数与规模,仿佛打开了欲望的闸门。“塞其兑,闭其门”在此映射为一种技术节制伦理:AI进步不应只是规模的叠加,更应是“为道日损”式的精炼——在算法设计与数据应用中主动设置边界,追求效率、精准与隐私保护之间的动态平衡,而非无度索取。
此外,AI能力飞跃催生了普遍的“替代焦虑”,动摇人对自我价值的认同。《道德经》的智慧在此转化为一种心灵安顿的启示:人类需在技术喧嚣中保持理性,认清人之为人的独特性在于道德判断、情感体验与创造性灵感,这些恰是AI难以复制的能力。守住这份心灵本性,才不致在智能幻象中迷失自我。
其二,调和技术锋芒,构建和谐秩序。“挫其锐,解其纷”直接呼应了AI带来的挑战。AI之“锐”体现在其可替代人类劳动的强大效能,甚至在某些领域形成超越性优势。《道德经》第四十章中“弱者道之用”的智慧提示,真正有力的技术应如“水善利万物而不争”,以辅助而非取代为根本范式。例如协作机器人保留人类决策核心、AI工具增强人类专业判断能力而非替代它,如此“挫其锐”,使技术走向辅助人类的和谐路径。
同时,AI已在就业、公平、安全等领域引发显著“纷争”。“解其纷”要求技术发展不能遵从赢家通吃的逻辑,而应依循“天之道,损有馀而补不足”的平衡观。这意味着通过算法审计消除偏见、在资源分配中保障公平、为技术冲击设计社会缓冲。开源协作、伦理治理等机制,正是化解技术垄断与纷扰的重要实践。
其三,寻求“玄同”,走向人机共生的未来。“和其光,同其尘”指向一种积极的融合境界,为人机关系勾勒出理想图景:不是对抗,也不是吞噬,而是光彩互映、和谐相处。
“和其光”呼吁在创造层面实现人机能力互补:AI发挥其数据处理与模式识别之长,人类则贡献直觉、伦理与审美之“光”。无论是AI辅助艺术创作,还是助力科学探索,理想状态应是两者(即人机)交融、彼此激发,而非一方遮蔽另一方。
“同其尘”则强调在人机共存的世界里,必须共同遵循基本的伦理与法律框架,这要求AI系统深度嵌入人类价值观与法规中,同时推动社会进行认知更新,形成一种权责清晰、双向对齐的共生关系。
“是谓玄同”,象征超越亲疏、利害等的更高境界。在技术语境中,这提示AI的归宿应是回归其“器”的本位,服务于人之“道”。AI发展需蕴含“知止不殆”的智慧,追求如都江堰水利工程般的动态平衡——疏而不堵,导而利之。如此,方能在硅基与碳基共舞的时代,避免异化。
最终,所有的争论都应服务于一个目标:让AI 的发展符合“人法地,地法天,天法道,道法自然”(《道德经》第二十五章)的根本规律。
| “人法地,地法天,天法道,道法自然。”(《道德经》第二十五章) 释义:人取法于地,地取法于天,天取法于道,道纯任自然。 与AI的关联:这是所有AI争论的最终归宿。AI的发展与治理,其最高准则不应是人类的征服欲或控制欲,而应是效法“道”的“自然”——让技术与人、社会、环境在动态平衡中自发、和谐地发展。 |
当我们在争论中保持“致虚极,守静笃”(《道德经》第十六章)的定力,就能在智能时代的十字路口做出既顺应技术潮流,又保全人类本真的明智选择。这或许就是《道德经》智慧给我们最珍贵的启示:在变化中守住不变,在前进中不忘初心。
本书除“导读”外,分上、中、下三篇,分别探讨AI伦理挑战、人机对齐技术以及全球AI治理。每篇最后单列一章,以《道德经》智慧进行系统解析,试图让人们在AI技术的激进浪潮与焦虑中,寻得一片宁静的思辨之地,在文明的十字路口找到通向上善AI的智慧之路。

技术迭代的浪潮奔涌向前,AI已不再是科幻小说中的遥远构想,而是深刻嵌入现实的社会存在。在享受AI带来的效率革命与智能红利的同时,我们也必须直面其引发的深刻挑战——不仅是技术层面的“如何实现”,更是文明层面的“如何共生”。
从隐私边界的消融,到算法偏见的蔓延;从就业结构的重构,到“黑箱”决策的隐忧;从深度伪造对真实的侵蚀,到情感沦为可计算资源的风险……我们站在人机共存的十字路口,面临的每一个问题都关乎人类社会的根本秩序与价值底线。
牛津大学哲学家、知名AI思想家尼克·博斯特罗姆指出:超级智能可能是人类面对的最后一次挑战……如果我们失败,或许将没有第二次机会。
我们能否驾驭这股力量,而不被其反噬?我们能否在技术狂奔中,依然守住人性的灯塔?AI的智能是否应该有其边界?
我想,对齐研究的终极价值和目标,不仅是让AI的意图和行为与人类价值观对齐,更是让人类世界的未来走向始终与人类文明应永远珍视的美德和秩序对齐。
问题1:我们该如何守护隐私防线?

新华网报道,2018年,剑桥分析公司被曝涉嫌通过不正当手段,窃取社交媒体平台Facebook 5000万名用户的信息,利用AI 算法分析用户心理特征,精准投放政治广告,并用于预测、影响美国总统大选的选民投票意向。这一事件不仅暴露了社交媒体平台的隐私漏洞,更揭示了AI技术如何成为影响民主进程的工具。
“利益衡量三步检验”源于欧盟《通用数据保护条例》(GDPR)中“数据处理合法性基础”或“数据主体权利与数据控制者利益平衡”原则的概括性描述,尤其在涉及以“合法利益”作为数据处理依据时,监管机构常采用类似三步检验法进行合规评估。
在GDPR框架下,当数据控制者以“合法利益”(而非依赖用户同意)为由处理个人数据时,需通过目的正当性检验、必要性检验、利益平衡检验三步检验来确保处理行为的合法性与合理性。
2020年,另一家美国公司Clearview AI再次引发轩然大波。该公司未经用户同意,从互联网上抓取了超过30亿张公开照片,构建了庞大的人脸识别数据库,并出售给执法机构和私营企业。尽管面临法律诉讼和舆论谴责,Clearview AI的数据库仍在不断扩张,这进一步模糊了公共安全与个人隐私的边界。
此类事件频发,凸显了数字时代隐私保护的紧迫性与复杂性。单纯依靠企业自律已难以为继,亟须构建系统化的治理体系。
AI技术使大规模数据收集和分析变得异常容易,“数据即资产”的商业逻辑驱使企业不断突破伦理边界,数据侵权行为往往具有隐蔽性,受害者可能长期处于不知情状态。为应对这一问题,全球主要经济体纷纷构建法律规制框架,强化隐私保护的制度约束。欧盟通过《通用数据保护条例》《人工智能法案》《数字服务法案》形成三重规制体系,明确不可任意处理公开个人数据,要求处理活动具备合法基础并通过“利益衡量三步检验”,同时强制高风险AI保障训练数据可追溯、可解释。多国监管机构已对不当处理公开个人数据的企业处以高额罚款并责令其删除数据。美国则形成“联邦指引+州立法+行业自律+司法判例”的多元治理模式,联邦贸易委员会强调企业隐私保护的透明度与安全性义务,加利福尼亚州的《隐私法》虽对公开数据设定豁免,但司法判例正逐步收紧对大规模数据抓取的约束。
用户数据可携权又称数据携带权,是一项赋予个人对其提供给网络服务提供商的个人信息进行自主控制和转移的权利。这项权利旨在增强用户对个人数据的掌控力,打破大型网络平台的数据垄断,促进数字市场的公平竞争。
我国已构建起日趋完善的法律法规保障体系,《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》奠定制度基础,《生成式人工智能服务管理暂行办法》明确服务提供者对用户输入信息和使用记录的保护责任。在此基础上,监管政策持续向精细化、可操作化升级:2025年国家互联网信息办公室、公安部发布的《大型网络平台个人信息保护规定(征求意见稿)》,以用户数量阈值和服务性质双重标准精准界定大型网络平台,要求其设立高层级个人信息保护负责人及专门机构,落实数据境内存储义务和主动报告机制,同时明确用户数据可携权的办理时限与标准,还建立了极端情形下的第三方数据中心托管托底机制。针对数据跨境流动这一关键场景,我国推出个人信息出境认证制度,与数据出境安全评估、标准合同形成协同机制,通过第三方专业机构审核境内外处理者的保护水平,确保境外接收方具备不低于《中华人民共和国个人信息保护法》等相关法律法规所要求的个人信息保护水平与风险处置能力,同时推动国际互认,兼顾安全与数据流通效率。这些制度设计从合规要求向能力建设升级,构建了可问责、可验证的隐私保护框架。
差分隐私是一种通过添加可控的随机噪声来保护个人隐私的技术。
联邦学习是一种分布式机器学习范式,从根本上解决了数据集中带来的隐私泄露风险。
同态加密允许在加密后的数据上直接进行计算,而无须先解密数据。计算完成后,将结果解密,得到的答案与直接对原始明文数据进行相同计算的结果完全一致,实现数据的“可算不可见”。
技术本身也在成为隐私保护的双刃剑,而技术创新是破解治理难题的核心抓手。一方面,企业利用AI进行更精细化的用户画像与行为预测,这加剧了隐私泄露风险;另一方面,隐私增强技术(Privacy-Enhancing Technology, PET)与隐私工程化理念的融合应用,正开辟“可用不可见”的治理新路径。PET中的差分隐私、联邦学习、同态加密等技术,已在头部企业落地实践,苹果iOS系统通过差分隐私技术匿名收集用户行为数据,谷歌Gboard输入法借助联邦学习在本地设备训练模型以保障数据安全。我国政策明确鼓励平台开展隐私计算、区块链存证等技术创新,推动PET在金融、医疗等敏感场景加速落地,预计2026年数据合规流通市场规模将突破千亿元。人机对齐与隐私保护在实践中紧密交织,一个真正“对齐”的AI系统,必然会将保护用户隐私作为其核心价值准则之一,而健全的隐私保护,也为基于高质量、合规数据的对齐训练提供了基础。隐私工程化强调将隐私原则嵌入产品设计全流程,通过优化用户交互界面、明确权限索取说明等方式,让隐私保护从事后补救转向事前预防,从技术层面降低侵权风险。
隐私防线的构建绝非单一主体的责任,需建立“监管部门+企业+分发渠道+用户”的多主体协同治理体系。监管部门正从事后处置转向全流程监管,我国工业和信息化部通过全国统一的App备案管理系统和检测认证平台,运用AI、大数据技术实现动态监测,2019年至2025年上半年已通报违规App及软件开发工具包(Software Development Kit,SDK)超3000个,下架646个,下一步还将通过区块链技术实现App全生命周期可溯源管理。企业作为第一责任人,需落实“最小必要”原则,建立第三方SDK准入审核与定期审计机制,完善漏洞应急响应体系。分发渠道作为重要“看门人”,应强化上架审核与全流程巡查,如OPPO软件商店建立“五大方向15项自动化检测+147项人工检测”的风控体系,严控违规权限与广告行为。用户则需提升数字素养。另外,监管部门与媒体可联合制作科普内容;手机厂商可优化权限管理界面,提供风险提示;教育部门可将数字安全教育纳入课程体系,筑牢隐私保护的基础防线。
未来,隐私治理的核心仍在于平衡数据流动与价值挖掘的动态关系。这需要法律规制持续适配技术发展,通过明确边界为创新留足空间;需要技术创新与产业应用深度融合,让隐私保护成为数字经济的竞争优势;更需要各主体形成治理合力,将制度要求、技术能力与用户意识转化为常态化的隐私保护实践,在数字时代筑牢个人权益的安全屏障。
问题2:如何确保AI不会放大社会歧视?

COMPAS全称是Correctional Offender Ma-nagement Pro-filing for Alter-native Sanc-tions,即罪犯矫正替代性制裁分析管理系统,用于评估被告再犯罪风险、辅助法官量刑等决策。
2016年,当佛罗里达州的法官打开COMPAS时,他们相信自己在使用最客观公正的司法工具。直到非营利调查新闻机构ProPublica的调查记者发现,这个被寄予厚望的AI系统正在法庭上悄然复制着现实世界的不平等——黑人被告被标记为“高风险”的概率几乎是白人被告的两倍,即便他们的犯罪历史和再犯罪率相当。
类似的场景持续在社交媒体平台和招聘算法中上演。Twitter (现已更名为X)用户惊讶地发现,平台自动生成的图片缩略图总是优先显示白人面孔。这个看似中立的算法决策,实际上建立在隐形的视觉偏好之上。亚马逊的AI招聘算法基于历史的招聘实践和申请人数据,会先拒绝女性的工作申请。
当工程师们追溯原因时,他们面对的是一连串无心的技术选择:训练数据集的构成、特征权重的设定、优化目标的取舍。每个技术决策背后,都藏着未被审视的社会偏见。
AI本质上是对人类社会历史数据的复现与学习,而人类社会本身就存在着根深蒂固的结构性不平等。AI不仅难以保持价值中立,反而常常成为系统性偏见的载体和放大器。为此,学术界提出可解释性测试、偏差检测、审计算法等方法,但系统性解决算法偏见问题仍处于早期探索阶段。
当前,应对算法偏见已从理论探讨走向实践规范。公平机器学习(Fair Machine Learning)领域发展出预处理(调整训练数据)、处理中(在模型中嵌入公平约束规则)和后处理(调整模型输出)三类主要技术路径及算法。IBM开发的AI公平性360工具包(AI Fairness 360)就集成了数十种此类算法。在监管层面,美国纽约于2021年通过了《自动化就业决策工具法》,要求对用于招聘的AI进行年度偏见审计;欧盟《人工智能法案》直接将用于招聘、司法等领域的AI列为高风险,强制进行基本权利影响评估。然而,公平性定义本身具有社会建构性,不同文化、不同场景下,对“公平”的理解可能存在冲突,这使得技术解决方案无法完全替代价值判断和公共审议。
要从根本上遏制AI对社会固有歧视的放大,需构建“国际协同、法律筑基、技术赋能、行业自律”的多元协同治理体系,依托各类官方权威规范形成全链条管控合力。具体说明如下。
第一,国际协同:没有全球规则,AI公平就是空谈。国际层面已形成多项权威文书与治理共识,为各国提供根本遵循。联合国教科文组织(United Nations Educational,Scientific and Cultural Organization,UNESCO)2021年通过的《人工智能伦理问题建议书》作为首部规范AI伦理的全球性文书,以软法形式确立了“保护人权、尊严与自由”的核心原则,要求将反歧视伦理嵌入AI全生命周期,鼓励各国将其转化为国内政策与法律。联合国近年来加速推进AI国际规则制定,2024年先后通过题为“抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展”决议和加强人工智能能力建设国际合作决议,并依
可解释AI是AI的子集,侧重于机器学习模型的透明性和可解释性,使人类能够理解模型的输出或决策,从而更容易信任和利用结果。
托联合国人工智能高级别咨询机构统筹全球治理资源,推动形成反算法歧视的国际共识。国际标准化组织(ISO)和国际电工委员会(IEC)于2023年发布的ISO/IEC 42001《信息技术 人工智能 管理体系》,成为全球首个AI管理体系认证标准。该标准采用PDCA(即计划、执行、检查、处理)循环模型,将算法公平性纳入七大核心模块,强制要求高风险AI场景采用可解释AI(XAI)技术,建立首席AI伦理官制度,通过第三方认证确保企业AI治理合规性,为全球企业提供了标准化的反歧视操作框架。
第二,法律筑基:给算法硬约束。各国纷纷通过立法与政策细化,构建反算法歧视的硬约束体系。我国已形成多层次法律法规保障框架:《中华人民共和国个人信息保护法》第二十四条明确要求利用个人信息进行自动化决策应当保证“结果公平、公正”;2025年8月印发的《国务院关于深入实施“人工智能+”行动的意见》,明确提出防范算法歧视风险,构建多元协同的人工智能治理格局。地方层面也涌现创新实践,如浙江省温州市妇联、市人力资源和社会保障局、市总工会2025年联合出台的《温州市反就业性别歧视联合约谈工作机制》,将AI招聘算法歧视细化为十类规制情形,为地方精准处置算法歧视提供了操作指引。在执法与追责层面,需完善全链条监管机制。可借鉴举证责任倒置制度,要求企业自证算法无歧视性,降低劳动者维权门槛;对AI开发、训练、应用全流程实施备案审查与动态监测,重点监管招聘、司法、信贷等歧视高发领域,对查实的歧视行为实施严格问责,形成有效震慑。
第三,技术赋能:让“算法黑箱”变得透明可审计。以技术手段破解技术偏见,构建“以算法治理算法歧视”的闭环体系。在数据层面,需建立标准化数据审计流程,采用Fairlearn等工具识别数据集的人口统计失衡问题,通过合成少数过采样技术(Synthetic Minority Over-sampling Technique,SMOTE)补充少数群体数据,同时依托联邦学习技术实现数据“可用不可见”,在保护隐私的前提下减少数据偏见。在模型设计阶段,嵌入价值逻辑,采用可解释性算法,清晰呈现特征权重与决策路径,消除“算法黑箱”带来的歧视隐患。建立常态化监测与迭代机制至关重要。企业需部署实时监控系统,跟踪模型运行中的公平性指标,及时识别数据漂移引发的偏见复现;每季度开展算法偏见审计,结合用户反馈与监管要求,持续优化模型参数,确保AI系统在全生命周期内保持公平性。
人在环内指AI系统仅提供信息、分析或建议,所有关键作战决策——尤其是是否使用致命武器——必须由人类作出并明确授权,机器不具备独立执行决定的权力。
第四,行业自律:把公平内化为竞争力。推动行业主体落实主体责任,形成伦理与技术并重的开发理念。头部企业应牵头制定行业自律规范,将公平性要求纳入AI产品开发指南,建立算法伦理审查委员会,对高风险AI产品实施上线前伦理评估。在招聘、医疗等敏感领域,推广“人在环内”(Human-In-The-Loop,HITL)模式,确保AI决策最终由人类复核把关,避免算法完全替代人类判断。加强跨领域协作与能力建设,鼓励行业协会、科研机构与企业联合开展反算法歧视技术攻关,推广成熟的公平性评测工具与最佳实践。同时,开展常态化培训,提升AI开发者的伦理意识与反歧视技术能力,从源头减小偏见嵌入的可能性。
综上,遏制AI放大社会歧视并非单一技术或法律问题,而是需要凝聚国际共识、强化制度约束、优化技术支撑、压实行业责任的系统工程。唯有将公平性理念贯穿AI全生命周期,实现价值引领、法律保障与技术优化的有机统一,才能让AI真正成为促进社会公平的工具,而非社会歧视的放大器。

图灵奖得主、加拿大蒙特利尔大学教授约书亚·本吉奥在2025年6月举行的北京智源大会上,以《如何从失控的AI“心智”中拯救人类的未来》为题做主旨演讲,他表示:具备行动能力的AI如果产生自主意图,可能会出现隐瞒、欺骗等“自我保护”倾向,一旦失控,可能引发系统性灾难。
早期AI仅作为辅助工具使用,其优劣主要由性能指标评判。然而,今天的AI已经在医疗、金融、司法等多个关键领域实现了从辅助工具到主动建议乃至决策参与的角色转变。按目前构想的发展方向和趋势,未来AI将深度参与社会决策、生产活动和人类生活,成为社会运行和治理的主体之一,其输出与行为所承载的价值判断与伦理取向,将成为造福或危害人类社会的关键变量。
对AI“心智”的构建和塑造,思想渊源可追溯至1942年美国科幻作家艾萨克·阿西莫夫提出的“机器人三定律”。这是一次开创性的理论尝试,旨在为自主机器设定伦理边界。
1950年提出的“图灵之问”至今仍发人深省:“我向诸君提出这一问题:机器能思考吗?”
1960年,诺伯特·维纳发出了更具哲学意味的警告:“我们最好确定,机器的目的是我们真正渴望的目的。”人机对齐的理念由此诞生。
2016年,“价值对齐”被正式定义为一个研究领域,明确其核心目标是确保AI系统的目标和行为与人类的意图和价值观保持一致。
在这一部分,我们将以人机对齐为主线,探讨如何为AI塑造一颗能够理解、权衡并遵循人类价值秩序的“智能之心”。

技术本身并无好坏善恶之分,应当被平等、普惠、安全地用于造福全人类,然而现实往往与愿景背道而驰。
2025年9月5日,Anthropic官网宣布立即禁止多数股权由中国资本持有的企业及其子公司使用Claude。无独有偶,OpenAI首席执行官萨姆·奥尔特曼在多个场合强调美国必须保持AI领导地位,以应对来自中国的挑战,并呼吁全线封杀DeepSeek。Anthropic、OpenAI作为全球主导价值对齐研究和实践的顶级科技公司,其实际行动却充满了歧视性与排他性,与其高调宣扬的价值主张自相矛盾。
在2024年世界政府峰会上,黄仁勋提出主权AI(Sovereign AI)概念,他认为:每个国家都需要拥有自己的AI基础设施,以保护自己的文化和经济安全。
主权AI把AI技术的政治属性摆上了台面。AI时代的世界不是乌托邦,而仍旧是那个由国际规则和国家能力所主导的丛林世界。中国面对美国的围堵打压,坚持走独立自主与开放合作并举的发展之路。欧洲国家纷纷在主权AI上发力,以减少对美国的依赖。
本篇将以主权AI为主线,探讨全球主要经济体关于AI发展和治理的竞争与博弈。