首页 > 报告 文稿 经济
卢阳旭:加强科技伦理治理 推进科技强国建设
2025年01月02日 16:07
卢阳旭 中国科学技术发展战略研究院研究员
一、深刻认识加强科技伦理治理的重要意义
(一)加强科技伦理治理体系和治理能力建设,是建设科技强国的内在要求
2024年6月24日,习近平总书记在全国科技大会、国家科学技术奖励大会、两院院士大会上,对我国要建成的科技强国作出深入阐释,明确提出科技强国必须具备五方面基本要素。其中,拥有强大的科技治理体系和治理能力,形成世界一流的创新生态和科研环境,是五个要素之一。
科技伦理治理体系是科技治理体系的重要组成部分。因此,加强科技伦理治理体系和治理能力建设,就成为了实现科技强国建设目标的内在要求。党的十九届四中全会审议通过了《中共中央关于坚持和完善中国特色社会主义制度推进国家治理体系和治理能力现代化若干重大问题的决定》,明确提出要“健全科技伦理治理体制”,从国家治理体系和治理能力建设层面,明确了科技伦理治理体制的定位。党的十九届五中全会审议通过了《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》,要求“健全科技伦理体系”,从2035年国家中长期发展目标的角度,定位了科技伦理治理体系建设的目标,2035年也是实现建成科技强国战略目标的年份。党的二十届三中全会审议通过了《中共中央关于进一步全面深化改革推进中国式现代化的决定》,从进一步全面深化改革,特别是深化科技体制改革的角度,提出要“加强科技伦理治理”。一脉相承的表述,充分体现了科技伦理治理在科技治理和科技强国建设中的重要地位,也表明推进科技伦理治理体系和治理能力建设的紧迫性。
(二)加强科技伦理治理体系和治理能力建设,是防范和化解新兴技术伦理风险、践行科技向善理念的必然要求
2021年,习近平总书记在中国科学院第二十次院士大会、中国工程院第十五次院士大会、中国科协第十次全国代表大会上指出,“科技是发展的利器,也可能成为风险的源头”。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架。
近年来,以人工智能、生物技术等为代表的新兴科技发展迅速,展现出了对自然环境、经济、社会状况和人们日常工作和生活的巨大影响力。新兴技术有四个突出特点:一是它们有可能给人和社会带来巨大受益,同时又有可能带来巨大风险,甚至威胁到人类的健康和尊严。二是它们具有不确定性,导致我们对所采取的干预措施可能引起的后果难以预测,影响后果的因素可能太多、太复杂,相互依赖性太强而不能把握;无论是科研人员还是监管机构,某种程度上都处于信息不足、知识不够的状况之中,不能确定其产品影响人的健康和破坏环境的概率及其性质,因而无法采取有效措施加以应对。三是它们具有双重用途的特性,即一方面可被善意使用,为人类造福;另一方面也可被恶意使用,给人类社会带来危害。四是它们会产生出一些我们从来没有遇见过的新的伦理问题,这种影响和改变我们在很多方面已经看到和感受到,但其长远的影响和具体的潜在风险我们却并不完全了解,更缺乏相应的应对措施。
所以,加强科技伦理治理特别是新兴科技领域伦理治理就成为我们在追求科技发展过程中更好趋利避害的必然选择。
(三)加强科技伦理治理体系和治理能力建设,是积极参与和引领国际科技治理的现实需要
随着我国的全球影响力越来越大,日益接近世界科技强国的目标,必将有越来越多的中国科研人员和科技成果走上世界科技前沿和世界科技舞台中心,塑造负责任科技大国的形象、深度参与全球科技治理,势在必行。
习近平总书记多次强调,“要深度参与全球科技治理,贡献中国智慧,塑造科技向善的文化理念,让科技更好增进人类福祉,让中国科技为推动构建人类命运共同体作出更大贡献”,充分体现了中国通过科技创新更好应对全球共同挑战、增进人类福祉、推动构建人类命运共同体的责任担当和深层伦理关怀。
建立一套有利于科技创新可持续发展、帮助人类在科技发展过程中“趋利避害”的科技伦理治理理念、规则和制度,有利于树立我国科技创新“可持续”、“守规矩”、“负责任”的形象,有利于我国在全球科技治理中获得更大影响力和引领力。这些年,我们国家在这方面做了很多工作,也取得了很好的成效。2024年6月,习近平总书记在全国科技大会、国家科学技术奖励大会、两院院士大会上,将“坚持科技开放合作造福人类,奉行互利共赢的开放战略,为应对全球性挑战、促进人类发展进步贡献中国智慧和中国力量”作为新时代科技发展八条经验之一。
二、全面认识科技伦理治理的基本议题
科技伦理和科技伦理治理,是一个有着很长历史、很丰富内涵的议题。对“二战”期间纳粹暴行的反思激起了人们对科技伦理的关注和重视。“二战”后,对核武器开发的反思、环保运动的兴起,以基因研究、克隆技术和人类基因组计划等为代表的新技术快速发展让科技伦理成为全球科学研究和公共政策中的一个重要议题。
科技伦理主要指在科技研发和应用活动中应当遵守的价值取向、行为准则和社会规范,既包括科学研究与技术开发过程中应遵循的伦理规范,也包括科学技术应用过程中的伦理规范。从实践层次看,科技伦理问题主要包括四个层面的内容:一是学术道德,这是对科技人员的基本要求,对学术道德的管理是目前科研诚信办公室的核心工作。二是在此基础之上的科研活动伦理,就是在科研活动中应该遵守的基本价值规范,如对受试者的保护、知情同意、保护隐私等。三是工程伦理,它涉及的范围很广,内容也比较复杂,如工程技术所带来的经济效益与环境保护之间、雇主利益与社会利益之间的矛盾与平衡,工程人员的社会责任等。四是新兴科技引发的相关伦理问题,其核心是对现代科技风险的评估与防范。强调科技伦理,旨在维护和扩展科学技术的正面价值,限制和制约其负面影响,以妥善解决科技发展与人类社会长远利益间的复杂关系。所以,学术研究和政策实践中,在谈及科技伦理时,通常都会涉及生命伦理、医学伦理、环境伦理、工程伦理、人工智能伦理等。
作为一种特殊类型的公共治理,科技伦理治理具备公共治理的一般特征。同时,由于科技创新活动及其影响的不确定性高、知识门槛高,使得科技伦理治理也有一些自身的特色。总的来看,科技伦理治理涉及的具体问题有很多,但核心问题是科技发展的收益与科技风险的权衡问题,或如何在科技发展过程中趋利避害。科技创新具有“双刃剑”效应,总会造成某种程度的“创造性破坏”,这就给人们提出了如何对特定科技创新的收益和风险进行总量估计和权衡的问题,以及如何对科技创新收益和风险进行分配和分担的问题。
预测、评估科技创新的收益和风险面临两个基本困难:一是科技创新及其成果应用带来的收益和风险通常都有高度的不确定性,准确的估计受信息不足和有限理性的约束而变得比较困难。二是对收益和风险的认知和计算具有很强的社会建构性,这意味着人们对收益和风险的认知和判断是一个动态的社会过程,具有很强的社会情境特性。不同发展阶段、不同文化背景、不同社会群体在对某项技术及具体应用中的收益和风险的认识可能会有显著差异,这一属性,使得人们很难对个体或群体的收益和风险认知做简单的设定和加总。
为了处理收益和风险权衡的复杂性与科技发展的迫切性之间的矛盾,人们提出了两种对待科技发展特别是新兴技术的原则,即所谓的“预防原则”和“先占原则”。“预防原则”主张人们要更谨慎对待科技发展蕴含的不确定性,以防止其带来不可预料的危害。“先占原则”则认为不应过分强调与科技发展可能带来的负面影响,以免过度规制限制科技发展,错失科技发展带来的机遇。但是,在科技伦理治理实践过程中,各国基本上都是处于以这两条原则为端点构成的连续谱中的某个位置,不会只执行一条原则。
总的来看,从全球科技伦理治理实践看,几十年来,科技伦理治理出现了以下三个方面的显著变化:一是在领域方面,由生命科学和医学领域扩展到各个领域,比如当下人们高度关注的人工智能伦理问题。二是在内容方面,由相对聚焦的伦理议题扩展到更广泛的伦理、法律和社会议题。三是在治理方面,由更多依靠科学界自我规范向强调多元参与、协同共治的治理模式转变。这些变化,一方面是近几十年来,科技快速发展对人们工作和生活产生了越来越强大的塑造能力;另一方面是人们风险意识、权利意识和参与意识的增强,以及公共治理的理念和方式发生了深刻变化。这两方面的原因,共同推动了全球科技伦理治理理念和方式的转型。
三、“三期交叠”新形势下我国科技伦理治理实践
(一)我国科技伦理治理面临的“三期交叠”新形势
近年来,我国科技伦理治理面临新兴技术快速发展期、经济社会高质量发展期、国际秩序深度调整期“三期交叠”的新情况,技术谱系、应用场景、社会观念同时处于新老杂糅、跨界组合的状态,蕴藏其中的伦理问题变得更加复杂,给科技伦理治理提出了更大的挑战和更高的要求。
第一,新兴科技快速发展给科技伦理治理带来新挑战。近年来,合成生物学、认知神经科学、人工智能等新兴科技迅速发展,相关研究和应用直接涉及对人的尊重和权利的保护问题,伦理争议无法回避。同时,生物、信息等领域技术的研发不再严重依赖大型科研基础设施和科研团队,大大降低了上述领域技术研发和获取的门槛,增加了技术被“误用”和“滥用”的风险,产生一些难以预料的伦理问题。更严峻的是,新兴科技治理举措还在发展过程中,全球科技界和监管机构都缺乏足够的新兴科技治理知识和经验。随着我国科技创新更多领域将进入“无人区”,我们也越来越多地进入了科技伦理治理的“无人区”,很多时候不得不面对科技伦理治理无先例可循的局面。这一状况,给我国科技伦理治理带来了很大挑战。
第二,高质量发展给科技伦理治理提出新要求。党的十九大明确指出,我国社会主要矛盾已发生深刻变化,人民美好生活需要的品质更高、范围更广,不仅对物质文化生活提出了更高要求,而且在民主、法治、公平、正义、安全、环境等方面提出了多样化、更高层次的要求。党的二十大明确对中国式现代化的特征作了明确阐释,内涵的一个要求就是要协同推进多重目标,实现高质量发展。
近年来,互联网、大数据、人工智能等新兴科技快速渗透到各个产业、工作和生活场景,对经济增长、生态环境、就业结构、工作样态、生活方式、社会治理等方面产生深刻影响,这些变化都会涉及多重经济社会发展目标之间的调整和平衡,而处理多重目标之间的关系,就会涉及关系背后深刻的伦理问题。总之,实现更充分、更平衡的发展,要求科技伦理治理不能限于一域,而要善于处理不同目标和逻辑之间的关系——这给政策制定与执行机制的优化,以及治理能力建设提出了更高要求。
第三,国际秩序深刻调整给科技伦理治理提出了新任务。一方面,加强科技伦理治理,特别是人工智能等新兴技术伦理治理的全球合作是国际社会的共识;另一方面,各个国家、各大企业为掌握更大话语权也存在激烈的博弈和竞争。在全球化和社交媒体时代,由伦理规范的历史性和文化性差异引起的误解和冲突可能会进一步增多、放大,科技伦理问题也可能成为国际舆论、外交争端新的“引爆点”。
在全球技术-地缘政治加速重构,科技、贸易等领域国际规则深刻调整的大背景下,科技伦理治理问题与全球技术、贸易、媒体等领域监管规则复杂地交织在了一起。一些国家将技术议题政治化,将科技议题、经贸议题等与价值观捆绑,并从中衍生出一系列标准、规范和“圈子”。因此,我国科技伦理治理的理念、规则和能力建设都必须充分考虑国际秩序深度调整和大国博弈这一关键变量。
(二)我国健全科技伦理治理体系的主要实践
第一,加快完善科技伦理治理顶层设计。2019年7月,中央全面深化改革委员会第九次会议,审议通过了《国家科技伦理委员会组建方案》。强调科技伦理是科技活动必须遵守的价值准则。组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。2021年12月,中央全面深化改革委员会第二十三次会议审议通过了《关于加强科技伦理治理的意见》(以下简称《意见》),会议指出要坚持促进创新与防范风险相统一、制度规范与自我约束相结合,强化底线思维和风险意识,把科技伦理要求贯穿到科学研究、技术开发等科技活动全过程,覆盖到科技创新各领域,加强监测预警和前瞻研究,及时从规制上做好应对,确保科技活动风险可控。2022年3月,中共中央办公厅、国务院办公厅印发了《意见》,首次对我国科技伦理治理工作作出系统部署,确立了伦理治理的价值理念,明确了我国加强科技伦理治理的立场和态度,提出了加强科技伦理治理的系列重大举措。
第二,加快完善科技伦理治理制度规则。2022年1月正式施行的新版《中华人民共和国科学技术进步法》加强了科技伦理相关规定,要求健全科技伦理治理体制,明确规定科学技术研究开发机构、高等学校、企业事业单位等应当履行科技伦理管理主体责任,按照国家有关规定建立健全科技伦理审查机制,对科学技术活动开展科技伦理审查。同时,相关部门出台了一批科技伦理治理制度,在国家中长期科技发展规划和“十四五”科技创新规划等制度性安排中将科技伦理与科技创新同谋划、同部署、同布局。
第三,加强科技伦理审查和监督工作。一是建立科技伦理委员会。按照《国家科技伦理委员会组建方案》的部署,在组建国家科技伦理委员会的基础上,先后成立了人工智能、生命科学、医学三个分委员会,推动相关部门成立科技伦理专业委员会,指导各地方结合工作实际,建立或者筹建地方科技伦理委员会。二是加强科技伦理审查。《意见》明确要求,涉及人、实验动物的科技活动,应当按规定由本单位科技伦理(审查)委员会审查批准,不具备设立科技伦理(审查)委员会条件的单位,应委托其他单位科技伦理(审查)委员会开展审查;科技伦理(审查)委员会要坚持科学、独立、公正、透明原则,开展对科技活动的科技伦理审查、监督与指导,切实把好科技伦理关。2023年科技部发布的《负责任研究行为规范指引》,也明确列出了科研人员和科研单位在履行伦理审查责任方面的行为规范和要求。
第四,加强科技伦理治理国际合作。在人工智能等新兴技术伦理治理领域,积极开展国际交流合作,比如积极参与并签署了联合国教科文组织2021年发布的《人工智能伦理问题建议书》等。应该说,近年来,我们国家在加强科技伦理治理,特别是人工智能伦理治理国际交流合作方面,做了很多重要工作,取得了很好的成效。
四、我国加强人工智能伦理治理体系和治理能力建设的实践
人工智能是新一轮科技革命和产业变革的重要驱动力量。近年来,随着人工智能技术的快速发展,与医疗、教育、文娱、制造和交通等场景加速融合,对社会生产力和生产关系都产生了广泛而深刻的影响。但是,人工智能的快速发展和广泛应用,也引发了一系列的伦理问题。围绕人工智能系统研发和应用所产生的伦理问题的治理已成为当前全球科技伦理治理的热点议题。
党的十八大以来,党中央把发展人工智能提升到战略高度,强调加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题,人工智能的发展将为我国构建现代化经济体系、实现高质量发展提供重要支撑。党中央、国务院也高度重视人工智能伦理治理问题。2017年7月,国务院发布《新一代人工智能发展规划》,要求必须高度重视人工智能可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险。2018年10月,习近平总书记在主持十九届中央政治局第九次集体学习时强调,要“加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。
什么是人工智能伦理?虽然在不同文化背景下,人们对不同伦理原则的排序以及对特定伦理原则的具体理解仍然存在差异,但从各国和国际组织发布的人工智能伦理原则来看,全球人工智能伦理原则呈现明显的趋同趋势。关于人工智能伦理的研究也出现了类似的变化,研究者关注的问题正逐渐从必要性讨论、伦理准则讨论向实施机制讨论延伸,致力于缩小“是什么”和“怎么做”之间的鸿沟。
在这个过程中,人们对于人工智能伦理问题的界定有了更为丰富的层次,至少包括以下三个层面:一是人工智能系统开发过程中的伦理问题。人工智能系统由算法、数据和算力三个核心要素构成,在讨论人工智能伦理时,首先要考虑的三个问题是,算法本身是否符合伦理规范,数据采集、存储、传输和利用是否符合伦理规范,以及算力建设和使用过程是否符合伦理规范。具体而言,在讨论算法的伦理合规性时,人们普遍关注算法是否存在歧视和偏见,是否会造成技术红利和风险的不公正分配等;在讨论数据的伦理合规性时,人们普遍关注数据采集、存储、传输和利用是否符合个人信息保护等伦理规范等;在讨论算力的伦理合规性时,人们普遍关注算力建设和使用过程中的环境伦理问题(比如能源消耗)等。二是人工智能产品和服务使用场景中的伦理问题。近年来,人们越来越关注医疗、教育、自动驾驶、新闻和社交媒体、市场营销等重点领域人工智能技术应用的伦理问题,比如人工智能技术引发了医疗安全、医疗责权归属、患者自主权以及诊疗过程中的歧视等一系列伦理争议。三是人工智能治理中的伦理问题,主要包括:一方面,如何让人工智能治理实践符合伦理规范,比如以各种方式开展的人工智能社会实验、人工智能沙盒监管试点等都会涉及伦理问题;另一方面,人工智能治理如何与促进人工智能技术发展和应用目标保持适当张力。
总之,在当前的人工智能伦理研究和政策实践中,需要人工智能技术研发、应用和监管主体应充分关注伦理议题的丰富性和复杂性,既要对人工智能领域的科技创新活动和技术应用活动进行伦理规范,也需要对人工智能治理活动本身持续进行伦理反思,充分考虑价值理性和工具理性、目的和工具之间的关系及伦理意涵。
什么是人工智能伦理治理?从治理角度看,人工智能伦理治理概念与其他新兴技术的伦理治理概念没有实质性差别,要素上都包括治理主体、治理规则、治理对象、治理工具等要素,主要任务上都要处理好风险和收益的平衡、治理机制和治理工具箱的开发与迭代等基本问题。但需要注意的是,每项新兴技术的伦理治理既有共性,也至少存在三个方面的异质性:一是技术的异质性,在技术特点和应用场景方面,人工智能技术与基因编辑技术和纳米技术等新兴技术存在很大差异;二是影响生成和传导机制的异质性,比如人工智能技术伦理风险生成机制与基因编辑技术的伦理风险生成机制存在很大差别;三是治理活动的发生情境的异质性,新兴技术的伦理治理活动都是发生在特定的社会文化和制度情境当中,而这会直接影响人们对技术发展和应用的风险与收益的判断、特定治理工具的有效性等。因此,当人们讨论人工智能伦理治理时,需要同时关注人工智能技术的特点、应用场景、影响的类型及生成机制,以及治理活动展开和治理工具使用的社会情境。
在厘清上述两个概念后,我们再来看近年来我国在推进人工智能伦理治理方面的实践和进展,大致可从法律法规体系构建、组织机构和工作机制建设、治理工具开发和国际交流合作等四个方面来梳理:一是成立国家科技伦理委员会及人工智能伦理分委员会。2019年7月,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》;2019年10月,中共中央办公厅、国务院办公厅印发通知,成立国家科技伦理委员会,随后建立了国家科技伦理委员会人工智能伦理分委员会。
二是推动人工智能伦理治理相关法律法规体系建设。近年来,我国一方面构建起了以《网络安全法》《数据安全法》和《个人信息保护法》等为主架构的法律体系,为人工智能伦理治理提供了重要的法律依据;另一方面以分散式立法的方式,加强了对个人数据、电子商务、智能金融、自动驾驶等与人工智能发展紧密相关领域的修法和立法工作。一些行业监管部门也陆续出台了一系列部门规章,以适应本领域人工智能应用监管需要,比如2023年11月,中国人民银行正式印发《人工智能算法金融应用信息披露指南》,提出了人工智能算法在金融领域应用过程中的信息披露原则、信息披露形式和信息披露内容等要素;2024年5月,国务院办公厅发布《国务院2024年度立法工作计划》显示,人工智能法草案被列为“预备提请全国人大常委会审议”。
三是持续探索人工智能伦理治理新工具和新方法。人工智能伦理规范的明确化和相关技术的发展,促进了确保人工智能系统的行为与人类价值观保持一致的各种技术和方法的发展。在技术层面,快速发展的人工智能对齐技术、红队测试、安全评测等为提高人工智能系统的鲁棒性、可解释性、可控性和合伦理性提供了机会,越来越多的机构开始把这类技术嵌入到人工智能研发和应用全生命周期当中。在治理机制层面,科技部、市场监管总局、工业和信息化部等多部门开展了诸如人工智能社会实验、沙盒监管等新的监管机制探索。2019年,科技部发布《国家新一代人工智能创新发展试验区建设工作指引》,明确将开展人工智能社会实验作为四项重点任务之一。2022年,市场监管总局、工业和信息化部、交通运输部、应急部、海关总署五部门联合发布《关于试行汽车安全沙盒监管制度的通告》,共同启动汽车安全沙盒监管试点工作。
四是积极参与全球人工智能伦理治理交流合作。近年来,我国广泛参与全球人工智能伦理治理合作,比如积极参与并签署联合国教科文组织2021年发布的《人工智能伦理问题建议书》,2023年11月受邀出席首届全球人工智能安全峰会并签署《布莱切利宣言》。2023年10月,我国发布《全球人工智能治理倡议》,提出坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度。2023年11月,中美两国元首同意建立人工智能政府间对话,并于2024年5月在瑞士举行了首次会议。2024年5月,中国和法国签署《中法关于人工智能和全球治理的联合声明》。2024年7月,联合国大会通过了中国主提的《加强人工智能能力建设国际合作决议》,特别强调人工智能系统应安全、可靠和值得信赖,其生命周期包括前期设计、设计、开发、评价、测试、部署、使用、销售、采购、运行和淘汰等阶段,这些系统必须以人为本、可靠、可解释、符合道德、具有包容性,遵循人工智能造福所有人的原则,符合以人为本、具有包容性、面向发展的信息社会的愿景。
“三期交叠”是我国推进科技伦理治理体系和治理能力建设的大背景,人工智能伦理治理同样是在这一大背景下展开。首先,当前处于人工智能技术快速发展期,人工智能技术发展的不确定性给人工智能伦理治理带来了不确定性。人工智能技术正处于快速发展过程当中,技术发展仍具有很大不确定性,这给伦理治理的议题设定和工具设计带来了很大挑战。中短期看,人工智能技术不确定性至少有两个来源:一是人工智能模型在鲁棒性、可解释性方面存在的不足——近两年取得突破的大模型技术同样存在这些问题。二是人工智能技术发展方向和速度的不确定性。不同技术方向下,对数据、算力和能源等的需求以及应用领域和方式都会存在很大差异,相应伦理问题和治理方式也会有所不同。比如,大模型技术路线对算力和训练数据的巨量需求,使得它碰到了环境、个人信息保护方面的伦理问题,而在其他路线下,这些问题可能不一定特别突出。
其次,当前处于经济高质量发展关键转型期,经济社会发展的多目标属性对人工智能伦理治理提出更高的“平衡”要求。作为一种通用型、赋能型技术,人工智能正在快速渗透到各个产业、工作和生活场景,产生了越来越深刻的影响,涉及多重经济社会发展目标之间的调整和平衡以及背后深刻的伦理问题。人工智能伦理治理扮演的是“方向盘”和“刹车”的角色,目标是要为人工智能技术发展和应用提供伦理规范和安全护栏,而不是要阻碍人工智能发展。但在实践中,伦理治理确实存在不利于人工智能研究和应用的风险。中央全面深化改革委员会第二十三次会议在审议《意见》时特别强调,“要避免把科技伦理问题泛化,努力实现科技创新高质量发展与高水平安全的良性互动”。国外的实践同样面临这方面的挑战,比如围绕欧盟2024年3月通过《人工智能法》的争论,核心关注就是会不会给人工智能技术的发展和合理应用造成意想不到的负面影响。总之,实现更充分、更平衡的发展,要求人工智能伦理治理不能限于一域,要综合考虑各方面的影响,要善于处理不同目标和逻辑之间的平衡。
最后,当前处于国际秩序深度调整期,大国博弈给人工智能伦理治理加入了新变量。虽然加强人工智能伦理治理全球合作是国际社会共识,但各国为掌握更大话语权而激烈竞争,以及全球人工智能治理仍处于“碎片化”状态也是客观事实。在全球技术-地缘政治加速重构,科技、贸易等领域国际规则深刻调整的大背景下,各国对“主权人工智能”的追求将使得人工智能伦理治理问题与全球技术、贸易、媒体等领域监管规则复杂地交织在一起。我国人工智能治理的理念、规则和能力建设都必须充分考虑国际秩序深度调整和大国博弈这一关键变量。2023年,中央网信办发布《全球人工智能治理倡议》,提出发展人工智能的11条原则,比如“应坚持‘以人为本’理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展”,对于加强全球人工智能伦理治理合作有很强的针对性。
在人工智能伦理治理活动中,上述三重因素处于相互交织、动态演化的状态,给我国人工智能伦理治理实践带来以下三方面的具体挑战:一是影响识别难题。影响的识别和评估是人工智能伦理治理的前提,但我国在这方面面临很大挑战,比如经济和社会系统高度复杂,很难准确评估人工智能技术应用的影响;影响的广度和深度取决于人工智能技术自身的发展和应用状况,而技术发展本身又有很大不确定性;影响具有很大的社会建构性,这给人工智能的影响评估方法以及各种类型影响的比较和权衡增加了很大的不确定性,对于与价值观念、风险感知、社会偏好高度相关的伦理议题更是如此。
二是人工智能伦理治理“无人区”难题。当前,新一代人工智能对全世界来说都是一个新事物,在人工智能伦理治理方面没有现成经验,在很多应用场景中,我国实际上已经扮演先行先试角色,与之相关的伦理问题及治理活动也进入了“无人区”。在这种情况下,基于中国情境的人工智能伦理问题识别、评估和治理的知识生产变得非常重要。需要指出的是,如同其他新兴技术治理一样,人工智能伦理问题识别和治理所需的知识既包括技术知识更包括大量社会性知识。但从目前情况来看,我国人工智能伦理治理所需知识的生产迫切需要解决几个突出问题,比如人工智能技术开发者和技术使用者之间的信息不对称、人工智能技术开发者和使用者与监管部门之间的信息不对称,以及专家和公众之间的信息不对称。
三是伦理治理体系的有效性难题。近年来,我国在人工智能伦理治理领域已经开展了富有成效的探索,人工智能伦理治理领域的“硬法”和“软法”逐渐增多,形成了各式各样的治理机制和工具。但随之而来的一个问题,是把各种机制和工具之间的关系理顺,找到合适的平衡点。当一般性问题,在不同的“硬法”和“软法”中采取了不同的平衡点时,它们的伦理意涵是不一样的——这也是人工智能治理必须进行伦理反思的重要理由。
新时代,加强我国人工智能伦理治理体系和治理能力建设,一方面要全面认识人工智能伦理问题的内涵以及影响伦理治理实践的关键因素,确保治理体系和治理能力建设符合规律要求、符合实际情况;另一方面要突出问题导向,抓住治理体系和治理能力建设中的关键点、改革工作的突破点,着力提升工作的针对性和可操作性。具体而言,可从以下六个方面发力:
一是健全人工智能伦理治理法律法规体系。一方面,以法律法规的形式明确人工智能伦理问题的边界、不同主体在人工智能研发和应用过程中的权责划分,并根据实际情况,适时对其进行动态调整;另一方面,为人工智能伦理治理实践提供法律法规依据和约束,确保伦理治理实践符合法律规定和伦理规范。
二是健全人工智能伦理审查机制。加快健全人工智能伦理审查机构体系和伦理审查规范体系;通过业务培训等多种方式,加强伦理审查专业人才队伍建设;通过规范审查机构人员构成和审查流程等关键环节,加强伦理审查机构的能力建设,提高伦理审查质量;优化人工智能伦理风险分级分类标准,并建立与之相匹配的伦理审查和监管工作机制;进一步增加伦理审查工作的透明度,更好发挥伦理审查的导向作用。
三是建立人工智能伦理问题多元监督机制。进一步优化政府监管、行业自律、公众监督等多种监督方式的分工协作机制,增强监督工作的及时性和有效性、提高监督效率;支持人工智能企业和研发机构联合制定、共同遵守行业伦理准则,发挥自我约束机制的作用。
四是加强人工智能伦理教育。支持从事人工智能技术研发的机构及其他相关机构面向人工智能产品和服务研发人员开展人工智能伦理培训,鼓励人工智能产品和服务提供机构与用户就特定应用场景中的伦理规范加强沟通;加强人工智能伦理知识的普及教育,提高公众对人工智能伦理问题的关注度和理解力,增强公众有序参与人工智能伦理治理的能力。
五是加强人工智能伦理问题及治理效果研究。前瞻性地开展人工智能社会实验,支持政府和来自学术界、产业界的各类主体在人工智能经济社会影响识别、政策干预效果评估等方面共同开展系统性的研究;支持在各个应用场景中开展差异化的伦理治理机制探索和工具创新,增强伦理治理体系的敏捷性和韧性。
六是积极参与全球人工智能伦理治理。推动以联合国为中心的全球人工智能伦理治理对话与合作;围绕人工智能伦理治理问题,积极开展双多边交流合作,共享最佳实践、共同支持相关研究、共同制定治理规则,与各国携手推动全球人工智能伦理治理体系和治理能力建设。
责任编辑:王瑱
文章来源:http://www.71.cn/2025/0102/1251950.shtml