打印纸张 字号选择:超大 行高 带图打印 返回原文

首页 > 文库 理论大视野 时政

人工智能技术应用下的人格权保护

2025年09月02日 16:32

大模型需要的海量数据中蕴含了不少个人信息权益侵害风险——

人工智能技术应用下的人格权保护

人工智能成为新一轮科技革命和产业变革的重要驱动力量。“人工智能+”的蓬勃兴起,将深刻地改变人们的生产方式、生活方式和社会治理模式。人工智能大模型的发展需要海量数据作为训练素材,其中也蕴含了不少个人信息权益侵害风险,这给人格权体系提出了新的挑战。

已公开个人信息需兼顾保护与利用

在人工智能大模型训练中,已公开个人信息的保护变得更为重要,因为人工智能大模型训练数据多来源于已公开数据,其中难免涉及大量已公开个人信息。已公开个人信息具有重要的利用价值,但是对它们的再利用并非毫无界限。我国《个人信息保护法》第27条规定,个人信息处理者可以在未取得个人同意的情形下依法处理已公开个人信息。但个人信息处理者依法处理已公开个人信息还应当符合如下条件:第一,个人信息处理者应当在“合理范围”内处理已公开的个人信息。第二,对已公开个人信息的处理如果对个人权益有重大影响,应取得个人同意。已公开个人信息的处理结果可能会侵害信息主体的合法权益,比如,某个大模型收集大量碎片化个人信息,在经过训练后,可以呈现出比较完整的敏感个人信息,如个人行踪信息或者生物识别信息等。这种情况即为对个人权益具有重大影响,应当取得个人同意。在出现上述情形下,对已公开个人信息的处理,个人信息主体享有拒绝权。但在生成式人工智能场景下,人工智能训练中采用了海量信息,且搜集了大量来源不明的已公开的个人信息,服务提供者难以逐一识别究竟为何人的个人信息,因此很难适用知情同意规则。即使出现《个人信息保护法》第27条所规定的条件,信息主体也很难行使拒绝权,法律上只能注重利用而弱化保护。

强化对敏感个人信息的保护

人工智能技术的发展增强了数据分析和挖掘能力,突破了非自动化处理系统处理碎片化信息的局限,可以对海量碎片化信息进行集中处理,这就给个人信息安全,特别是敏感个人信息安全带来新的威胁。我国《个人信息保护法》之所以将敏感个人信息与一般个人信息区别对待,就是要对敏感个人信息处理采取严格的保护措施。

在生成式人工智能训练阶段,敏感个人信息有必要匿名化。该环节中,大量个人信息被汇集起来,一旦发生敏感个人信息泄露情形,将对个人信息主体带来极大威胁。例如,ChatGPT曾经出现过严重的技术漏洞,即用户可以在Redis开源库中看到其他用户的历史搜索记录标题和个人信息,比如其他用户的名字、电邮地址、付款地址和信用卡号码的最后四位等。类似情况一旦发生,所造成的严重后果往往很难被逆转和修复。此时,就需要引入动态匿名化的视角,采取一种持续性规范措施,更加关注基于流程的规制,而非仅仅关注对结果的规制。

在生成式人工智能运营阶段,由于生成式人工智能具有自动生成能力,其会对个人隐私、个人信息的保护带来巨大挑战。对此,输出端要采取对应措施,防止敏感个人信息成为最终生成内容或其组成部分。否则,敏感个人信息一经泄露,还可能会被别有用心之人利用,从事欺诈行为等,或使得相关个人信息主体被歧视和污名化。

生成式人工智能产出恶意内容、虚假内容的风险也应被关注。因为生成式人工智能对自己输出的内容真实性、准确性和合理性无法判断,如果其学习过程中存在偏差和漏洞,最终可能会让生成式人工智能在特定情况下生成恶意内容和虚假内容。而这种恶意内容和虚假内容也可能和相关主体的敏感个人信息存在一定关联。比如,人工智能生成虚假内容可能构成对自然人的诽谤、侮辱或以其他方式侵害自然人名誉。

声音等人格标识保护的重要性日益凸显

借助人工智能技术,任何人都可以广泛收集个人声音等人格标识,不仅可以将其制作成各种音频、视频,而且可以对其进行深度伪造。传统上,一些国家的法律仅对公众人物的人格标识提供保护,因为在当时的技术条件下,仅公众人物的人格标识具有较高的辨识度和商业价值。例如,英美法最初仅限于保护公众人物的肖像、声音等,这被称为“公开权”。但现在随着人工智能的发展,深度伪造(Deepfake)技术能够被用来进行声音伪造、肖像伪造、文本伪造、微表情伪造和视频伪造等。这给相关自然人带来的危害巨大。比如,韩国2024年爆发的深度伪造性剥削事件震惊了全球,众多韩国男性在一个“电报”群组中上传女性照片,付费后可将其制作成淫秽影像,其中甚至有大量受害人和加害人都是未成年人。此外,演员斯嘉丽·约翰逊曾指控OpenAI非法使用其声音,开发出的“Sky”模式的声音与她本人非常相似。这表明,对声音等人格标识的保护越来越迫切。AI可以模仿任何人的声音,并对声音进行加工和处理。任何人的声音都可能被侵害,这意味着任何人的声音都需要被保护。在我国,已经出现侵害声音权益的纠纷,随着声音权益的重要性不断提升,应当严格禁止通过深度伪造侵害他人声音等人格权益。

自然人虚拟形象纳入人格权保护范围

在人工智能时代,自然人的肖像以一种全新的方式被个人信息处理者处理,即被用来生成虚拟数字人。目前,虚拟数字人行业也进入了高速成长期,虚拟数字人商业化路径得到初步验证,量产虚拟数字人成为可能。但是,虚拟数字人一旦与现实世界产生交互,就给人格权体系带来了新的挑战。典型的是“中之人”扮演型虚拟数字人,它是由真人演员穿着动作捕捉设备,然后借助三维眼神、表情、手势、动作捕捉技术以及人体运动重定向、三维人体表情迁移等技术,对“中之人”相关信息数据全面收集和处理,最终定制出一个虚拟形象。虚拟数字人产品是否侵害自然人的肖像权,关键在于该虚拟数字人产品是否具有可识别性。对此应当依据《民法典》第1018条第2款的规定,采取可识别性标准进行同一性判定。从技术路径角度分析该虚拟数字人产品的训练过程与真人素材使用方式,判断是否存在虚拟数字人的虚拟形象与真实自然人肖像相同或相似的风险。

虚拟数字人还可以成为真人的“虚拟分身”,此时其背后投射的人格权益可能超出肖像权的保护范围,而形成新型人格权益。比如有的用户或者企业使用真实的个人信息对AI陪伴者进行训练,“调教”AI陪伴者。信息主体主张其个人信息和姓名权、肖像权遭受侵害。法院认为,这不仅构成对原告姓名权、肖像权的侵害,还构成对其一般人格权的侵害,因为自然人虚拟形象是姓名、肖像、性格特征、人格特点等综合而成的整体形象。正是由于该虚拟形象和真实自然人高度关联,用户才能产生一种与虚拟形象背后真人进行真实互动的情感体验。显然,这种“虚拟分身”并不能被目前任何一种具体人格权单独涵盖,它应当作为一种新型人格权益被保护。

(作者单位:中国人民大学法学院)

文章来源:http://www.71.cn/2025/0902/1271191.shtml