- +1
王美辰|生成式人工智能助推虚假信息泛滥的法律问题分析——以“Deepfake”为例
原创 王美辰 上海市法学会 东方法学
生成式人工智能以对话方式按照用户需求生成并传播信息已成为当下最受关注的技术。以Chat-GPT为典型代表的大型生成式人工智能正席卷全球信息技术和文字科研等领域。然而生成式人工智能技术发展更新迭代的极速性同法律法规的滞后性之间存在难以自动纾解的矛盾,在一定程度上致使生成式人工智能处于法治真空区。以“Deepfake”为例,生成式人工智能被用于社交媒体上的虚假信息活动,针对由此而产生的权益侵害,分析现行法律对于规制生成式人工智能虚假信息现象的适用性。多元共治格局具有必要性。法律监管与技术创新协同可以应对,以期对应对生成式人工智能虚假信息问题有所提示。
一、生成式人工智能核心技术助推虚假信息的产生与传播(一)
生成式人工智能基本原理概述
依据我国2023年8月15日起实施的《生成式人工智能服务管理办法》,生成式人工智能(Generative AI)“是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。以2022年11月美国OpenAI研究室对外发布的“聊天机器人”ChatGPT(Chat Generative Pre-Trained Transformer)为代表的大型语言模型一举成为互联网等多领域的热门应用,一举带动AIGC(AI-Generated Content,人工智能生成内容)的革新。因其超越了传统人工智能的范畴,能够深度机器学习生成人类可以理解的自然语言,执行需要人类智能才能完成的任务,深度链接现代经济活动和人类日常生活,属人工智能史上的里程碑。
以ChatGPT为代表的生成式人工智能工作的底层逻辑是模仿人类的语言机制,运用“联合概率”的学习判断机制灵活地生成口令内容,完成“与人聊天对话”的任务。即以仿生学为基础原理模仿人类训练人工智能神经网络体系,在接受海量信息数据后,发现现有数据的逻辑和规律,从而生成新的知识。简单概括其工作原理框架,主要包括五个方面,海量数据收集、数据预处理(对收集到的数据进行预处理,确保数据的质量和一致性)、模型训练(使用预处理后的数据对生成式模型进行训练)、模型选择(选择适合任务的生成式模型,例如生成对抗网络(GAN))、生成新数据。具体到ChatGPT的使用时,笼统地概括其运作流程,主要包括五个步骤,即输入指令、文本解析、数据检索、数据生成、输出结果。
数据生成是生成式人工智能的核心功能。依据上述原理所示,与之生成数据的真实性可靠性相关的关键步骤是,模型选择,即选择适合任务的生成式模型,例如生成式对抗网络(Generative Adversarial Networks,GAN)。生成式对抗网络是一种由两个神经网络组成的基于对抗学习的生成模型,旨在生成与真实数据相似的虚拟数据。生成器网络(Generator)负责生成虚拟数据,而判别器网络(Discriminator)则负责将真实数据和虚拟数据区分开来。通过不断的相互博弈,生成器可以生成与真实数据相似的虚拟数据,直到鉴别器无法区分真实数据和虚拟数据为止,便将该虚拟数据输出传播。
(二)
生成式人工智能输出虚假信息的原因分析——二者互为因果
联合国教科文组织出版的《新闻业:假新闻和虚假信息》报告中指出,虚假信息通常是指故意向受众提供不诚实的信息来迷惑或操纵受众。并就错误信息、虚假信息和恶意信息作出区别(如图所示)。
生成式人工智能是多维空间人类信息交换互通的辅助器,并对人类决策产生“决定式”影响。各类推送算法和决策自动化充斥着人类多数决策的前导工序,生成式人工智能ChatGPT的出现彻底完成了人工智能“辅助”决策的整体闭环。然而依其运作原理可知,生成式人工智能已有的数据资料和概率统计的算法尚且具有局限性和不透明性,这决定了其存在一个重要缺陷:如果数据库和算法存在偏见或不公正的因素,人工智能模型生成的内容可能受其影响,生成虚假、误导、无意义或质量差的信息,极易被用于社交媒体上的虚假信息活动,存在道德和伦理风险。就ChatGPT而言,即使OpenAI采取了一些技术措施对ChatGPT生成的信息进行正确性检测,GPT-4进一步提升了ChatGPT生成知识的可靠性,但并未完全消除上述局限性的影响,仍存在“生成过度”(即既产生真理也产生谬误,既认可道德的决定也认可不道德的决定)和“生成不足”(即对任何决定的承诺和后果的漠不关心)的情况。始终存在生成数据准确性偏差,甚至是“深度伪造”。并在较长时间内不可能完全解决ChatGPT提供虚假信息、错误甚至有害信息这一硬伤,而由此长时间内会导致各领域产生纠纷。具体而言,生成式人工智能输出并传播虚假信息的原因主要包括以下几点:
1.海量数据源存在客观性质量瑕疵
生成式人工智能需要大量的数据进行训练,这些未标注的海量网络数据是其资料基础,也是维系其运行的核心要素。然而这些从互联网获取的数据无法保证真实性、准确性和专业性。如果训练数据中存在虚假信息,模型就有可能学习到并就其模仿生成虚假内容,因其收集数据存在质量瑕疵导致其生成数据质量存在瑕疵。
2.模型的自我增强
生成式模型是基于自我学习并通过不断迭代和优化来提高自己的性能。如果模型在初始阶段生成了一些虚假信息,而这些信息又被广泛传播和接受,模型可能会在后续迭代中继续生成类似的虚假信息。
3.数据时间局限性
生成式人工智能虽能根据现有数据的逻辑和规律生成近似的数据,但其本质上并不具备创新能力。以ChatGPT为例,其数据库仅收录至2021年以前,故而模型无法获取近期的知识,其所生成的数据与现实发展的实际情况存在时间信息的差距,容易产生逾期效力或不合适的信息。有研究预测,按照当前的发展速度,到2026年,ChatGPT类大模型的训练将耗尽互联网上的可用文本数据,届时将无新训练数据可供使用。
4.数据带有主观性偏见
生成式人工智能依赖于海量数据进行训练和微调,缺乏对实际世界的直接观察和经验,工具属性决定了其并不具备主观能动性用以判断信息立场。训练数据中可能存在偏见和误导性言论,这些偏见和误导会影响生成式人工智能模型学习并在生成内容时体现出来。
5.模型自身的限制和缺陷
例如,模型可能无法正确理解某些语义或上下文,导致生成的内容出现错误或虚假信息。用户在使用时经常出现“驴唇不对马嘴”的问答。
6.用户盲目追求数据主义使得虚假信息传播深入肌理
数据主义(Dataism)是指相信数据可以说明一切。企业、政府、学者等深信数据的客观性、中立性以及算法计算的准确性。借此了解行业局势、开展事务以及获取利润。过于依赖并相信计算机数据反映出一种观念的兴起:若能收集足够的数据并且拥有足够强大的计算能力,便可“创造”权威。互联网的发展、现代社会生活对数据信息的空前依赖以及人工智能展现出来的强大的计算力和惊人的准确率,此观念仿佛深入了现代人的潜意识,潜移默化间渗透进生活。过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。
7.缺乏有效的审核和监管机制
当下对于生成式人工智能生成的内容的审核和监管机制尚不完善。缺乏有效的审核和监管机制使得虚假信息无阻碍传播。生成式人工智能技术容易被恶意使用,例如用来生成虚假的政治宣传或商业竞争中的虚假评论。
综上所述,生成式人工智能存在虚假信息问题主要是因为数据源质量瑕疵,数据时效性局限,数据主观性偏见,模型自身的限制和缺陷,以及缺乏有效的审核和监管机制导致极易被恶意使用。由此可见,规范生成式人工智能传播虚假信息问题需要多方面采取措施,从技术本身和政策规制入手,包括提高训练数据的质量,加强模型的设计和改进,建立有效的审核和监管机制等。
(三)
虚假信息传播典型手段——深度伪造(Deepfake)存在道德和伦理风险
“深度伪造(Deepfake)”是“Deeplearing(深度学习)”和“fake(造假)”的组合体——生成式人工智能的功能之一。该功能是一种利用生成式对抗网络(GAN)技术生成虚假图像、视频以及音频等的一项技术。早在2018年,美国市场发布了一款名为“FakeApp”的应用程序,满足用户快捷创建“Deep-fake(深度伪造)”产品之需。例如深度伪造虚假视频,通过将一个人的面部特征合成到另一个人的视频中,便可制作出看似真实的虚假视频。因其生成的视频足够逼真以致混淆视听,较难辨别,故此技术可能被用于制作虚假的政治宣传、名人演讲以及冒充当事人诈骗等违法事由。
1.虚假新闻
生成式人工智能可能被用于社交媒体上的虚假信息活动,即蓄意制造和传播带有主观目的的谎言。这种情况在社交媒体、新闻报道等领域尤为突出,利用生成式人工智能生成虚假的新闻和报道,包括错误信息、谣言、宣传和阴谋论。将这些虚假的新闻可以通过社交媒体、新闻网站等渠道传播,散布谣言、误导信息或夸大事实,影响公众的判断和决策。误导公众和影响舆论。
2.一键AI换脸
2023年3月2日,中国互联网络信息中心(CNNIC)在京发布的第51次《中国互联网络发展状况统计报告》中显示,截至2022年12月,我国网民规模达10.67亿,互联网普及率达75.6%。这表明智能时代,虚假信息借助新媒体传播速度之快,扩散范围之广,与公民社会生活相关之密切。
近年来“一键AI换脸”火爆各大平台,部分视频应用程序均可根据拍摄者提供的素材按指令生成图片或视频,部分图片制作应用程序也可以“一键换脸”。然而生成式人工智能模型在数据生成和处理过程中可能会涉及个人隐私信息,不法分子借此入侵公民个人信息并轻松掌握关系网对其亲友实施诈骗的案例屡见不鲜,利用“深度伪造”技术生成的视频、图像以及声音等实施诈骗。此种滥用科技扭曲事实的行为,严重威胁当事人的人格权益,其肖像权、名誉权、个人信息安全等受到侵害。
民法典第1019条规定,“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。”民法典第1024条规定,“民事主体享有名誉权。任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。”上述案例中,利用生成式人工智能制造并传播色情虚假信息的行为人,未经当事人准许擅自上传至互联网,是对当事人肖像权,名誉权的侵害。同时,散播利用“AI换脸”技术伪造的“裸照”,造谣者严重侵害公民合法权益,更是对社会秩序的破坏,违反我国治安管理处罚法的相关规定。其次,个人信息保护法第28条规定,“敏感个人信息是一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到侵害的个人信息,包括生物识别……”“AI换脸”技术中涉及的人脸信息,系个人生物识别信息,对此不当使用侵害了公民个人信息安全。此外,利用“AI换脸”技术制作淫秽视频并以之牟利的,涉嫌违反刑法第363条的规定,构成制作、复制、出版、贩卖、传播淫秽物品牟利罪,届时将会面临刑事处罚。
二、现行法律框架对生成式人工智能虚假信息规制适应性分析
(一)
现行法律对于生成式人工智能虚假信息规制的两个典型方向
生成式人工智能技术发展更新迭代的极速性同法律法规的滞后性之间存在难以自动纾解的矛盾,在一定程度上致使生成式人工智能处于法治真空区。智能时代的来临冲击着传统法律框架和传统法治模式,元宇宙的存在标志着法治空间的扩大。现行法律框架对于生成式人工智能虚假信息的规制主要有两个方面:信息传播的规制和虚假广告的规制。下面分别对这两个方面的适用性进行分析。
首先,针对利用生成式人工智能传播虚假信息的主体进行追责。根据信息传播规制,传播虚假信息可能构成侵权行为。具体而言,比如民法典、数据安全法、网络安全法、个人信息保护法等保障个人隐私权益。前文提及的“AI换脸”是生成式人工智能获取和使用个人数据的行为表现之一。生成式人工智能模型在数据生成和处理过程中可能会涉及个人隐私信息,如果这些信息被滥用或未经授权地使用,会侵犯当事人隐私权益,引发隐私泄露的法律纠纷。再如,著作权法保障公民知识产权。生成式人工智能模型可生成包含侵权内容的文字、图像或音频。一些生成模型可能会生成侵犯他人著作权的文章、盗用他人商标的标志等。
其次,现行法律框架中的虚假广告规制对于生成式人工智能产生的虚假信息的适用。依据我国消费者权益保护法、广告法等法律法规打击虚假广告。生成式人工智能可以根据消费者的喜好、行为、反馈以及市场需求,帮助商家生成个性化的广告内容,提高广告的点击率和转化率,更好地吸引和留住目标客户。不良商家借此生成虚假宣传误导消费者,对消费者权益造成侵害。消费者可以根据法律规定要求赔偿或退货,相关主体也可能面临罚款、停业整顿等制裁。同时,商业诽谤法、不正当竞争法等纠正市场不正当竞争。部分商家或服务提供商可能利用生成式人工智能生成虚假的好评或恶意评论,从而误导消费者或破坏竞争环境。如果生成式人工智能产生的虚假信息侵犯了他人商业信誉等合法权益,可能构成侵权行为,需要承担相应的法律责任。
此外,还有相关的行政法规和规章制度,如网络安全法、电子商务法、互联网信息服务管理办法等,也对虚假信息进行了一定的规制。
(二)
现行法律框架的滞后性分析
生成式人工智能技术在不断发展和演进,新的模型和算法不断涌现。现行法律框架通常较为缓慢地跟随技术的发展,导致法律规制对于新兴的生成式人工智能技术和虚假信息生成方式的适应性有限。具体表现如下:
其一,生成式人工智能技术的快速发展使得虚假信息的生成更加隐蔽和智能化,难以被发现和识别。现行法律框架对虚假信息的定义通常侧重于人为散布虚假信息的行为,而对于由生成式人工智能生成的虚假信息,其生成过程涉及到算法和模型的复杂性,定义模糊性增加了规制的难度。现行法律框架对于虚假信息的定义和判定标准可能需要进一步明确和完善,以适应新技术的发展。
其二,生成式人工智能生成的内容往往是基于大量训练数据的模拟结果,难以追溯到具体的信息源。现行法律框架在虚假信息规制中通常依赖于信息源的追溯和责任追究,但对于生成式人工智能生成的虚假信息,很难追溯到具体的数据源,因此法律框架在这方面的适应性较弱。
其三,生成式人工智能技术具有跨国界的特点,虚假信息的生成和传播往往涉及跨境传播和多方主体参与。现行法律框架在国际合作和标准化方面存在缺失,难以有效地应对跨国界虚假信息的问题。
三、多元共治格局——法律监管与技术创新协同应对
(一)
法德共治——法律规范引导发展,发挥道德教化作用
科学技术的进步对国家治理体系和治理能力提出了更高要求。国家和社会的治理需要法律和道德共同发挥作用。坚持法治与德治有机统一,一手抓法治、一手抓德治,既要重视发挥法律的规范作用,也要重视发挥道德的教化作用。二者相辅相成、相得益彰。
1.探索人工智能立法,充分发挥法律的规范作用
发挥立法的引领和推动作用,以法治为大前提引领人工智能的发展和变革,充分掌握应对社会发展变化的主动权。因此,政府、科技公司、学术界和社会组织等各方应加强合作,共同制定生成式人工智能虚假信息的规范和标准,共同监督和治理生成式人工智能算法的使用。
2023年6月14日,欧盟通过人工智能法案授权草案,重点对具有高风险的人工智能产品和服务实施治理。欧盟通用数据保护条例(General Data Protection Regulation,GDPR)是欧盟针对个人数据保护颁布的一项法规,其中包括对算法透明度和数据隐私的要求。该法规可为制定类似的监管框架提供参考。
应对生成式人工智能虚假信息的全球性挑战,需要前瞻性的立法,规范人工智能技术的使用范围和条件,保障公共安全和社会秩序。在解决现有社会矛盾的基础上,防范于未然,适度超前立法,尽可能改善立法的滞后问题。具体而言可包括以下几个方面。
第一,以有益于国家和国民利益为立法导向,平衡发展和安全。针对生成式人工智能立法应坚持总体国家安全观和新发展理念,既要保障急用先行,避免新兴技术带来的问题,又不能急于推行过于严格的人工智能方案以提高制度的可用性。
第二,明晰生成式人工智能的法律地位及责任追究机制。对生成式人工智能生成的虚假信息进行明确的定义,并考虑技术特点和生成过程中的责任分配。强化技术监管和合规要求:加强对生成式人工智能技术的监管,要求技术提供商和使用者遵守合规标准,确保生成结果的真实性和可靠性。
第三,尤其强调保护用户个人隐私和数据安全,规定人工智能应用收集、使用和存储个人数据的限制和要求,确保个人隐私得到保护。
第四,指导规范人工智能的伦理和道德问题,明确人工智能应用在伦理和道德问题上的底线和限制,避免人工智能系统偏见和不公平,确保人工智能应用符合社会伦理和道德规范。
第五,鼓励生成式人工智能技术提供商自律,主动披露算法和模型的工作原理,提高透明度,避免黑箱操作,便于监管和评估。国家网信办6月20日消息,首批境内深度合成服务算法获得国家备案系统承认,此次备案清单发布标志着我国监管对于生成式人工智能领域应用落地配套。
第六,应以我国民法典作为上位法与之相衔接。基于法律体系的一致性考虑。我国民法典是我国民事法律体系的核心法律,规定了个人权利、财产权利、合同权利等基本权益,具有普遍适用性和权威性。人工智能立法作为特殊领域的立法,应当与民法典相衔接,保持整个法律体系的一致性和协调性。尤其是人工智能技术的发展和应用对个人权益产生避无可避之影响,例如个人隐私、数据安全、人格尊严等。我国民法典中有关个人权益的规定,可以为人工智能法律提供基本原则和框架,确保人工智能技术的发展和应用不侵犯个人的合法权益。在追责方面,统一侵权责任确定原则,保持法律原则一致性。人工智能技术的应用可能引发各种责任问题,例如机器人的伤害责任、自动驾驶车辆的交通事故责任等。我国民法典中有关侵权责任的规定可以为人工智能法律提供参考,明确责任主体和责任范围,保障受害人的合法权益。
2.提高公民素质,发挥道德教化作用
道德可以通过内在信念影响外部行为。发挥中华传统美德对公民的教化作用,以道德滋养法治精神,强化道德对现代文明的支撑作用和引导作用。政府、教育机构、媒体和社会组织多方合力,共同维护信息的真实性和公民的权益。
加强公民道德教育和信息素养教育,培养公民对真实与虚假信息的辨别能力和批判思维能力。教育机构、媒体和社会组织可以开展相关培训和宣传活动,提高公民对虚假信息的警惕性。鼓励公民积极参与网络空间的治理和监督,形成全社会共同抵制虚假信息的合力。政府、媒体、社会组织和个人共同努力,加强信息的真实性和可信度的宣传,引导公民正确使用信息,避免传播虚假信息。
(二)
部门监管精细治理——强化算法监管和透明度与审核机制
建立独立的监管机构或部门,对生成式人工智能的应用进行监管和管理。监管机构应具备专业的技术团队,能够对算法进行评估和监测,确保其符合道德和法律要求。建立严格的审核机制,对生成式人工智能算法生成的内容进行审查。要求生成式人工智能系统提供真实、准确、可信的信息,并对违规行为进行处罚和追责。审核机制可以包括人工审核和自动审核相结合的方式,通过人工审核和机器学习算法的结合,提高审核效率和准确性。
链接国际社会应对生成式人工智能的措施,我国可择优借鉴,针对生成式人工智能建立独立的审核机构或机构合作,对生成式人工智能算法进行审核,确保生成的内容真实可信。公民个人数据保护方面,欧洲数据保护监管机构(European Data Protection Supervisor,EDPS)是欧洲联盟的独立监管机构,负责监督和促进个人数据保护的实施。该机构在算法透明度和数据隐私方面提供了一系列指导和建议。人工智能伦理规范领域,加拿大人工智能伦理与社会影响研究所(AI Ethicsand Society Impact Research Institute,AIESIRI)致力于研究人工智能伦理和社会影响,并提出了一些政策和指导原则,以规范人工智能算法的使用和传播。
生成式人工智能算法应该公开其工作原理和数据来源,使用户和监管机构能够了解算法是如何生成内容的。同时,应该公开算法的训练数据集和训练过程,以便外部评估和审查。对此可借鉴OpenAI的透明度和审核机制,他们提出了一些透明度和审核机制的原则,包括公开算法和数据集,并进行外部审查。同时,生成式人工智能的开发者和运营者应当遵守职业道德和社会责任,确保生成的内容真实、客观、有价值。行业组织可以制定行业准则和道德规范,引导从业人员遵循道德规范,避免误导公民传播虚假信息。
(三)
技术创新
1.提高训练数据质量
提高生成式人工智能的训练数据质量对于生成高质量内容至关重要,减少虚假信息的训练数据可以降低模型生成虚假信息的可能性。首先,可通过数据预处理阶段,对收集到的数据进行清洗和去除噪声。包括删除重复数据、修复错误数据、去除不相关的信息等操作,以确保数据的准确性和一致性。并对于生成式人工智能算法使用的数据源进行验证,确保数据的真实性和可信度。其次,将训练数据中引入人工审核和过滤,通过人工审核可以帮助识别和移除含有虚假信息、误导性内容或不适当内容的数据,提高训练数据的可信度和可靠性。再次,引入领域专家的知识和经验,对生成式模型的训练数据进行指导和补充。专家可以提供领域知识、语法规则、语义约束等,以帮助模型更好地理解和生成内容。最后,在训练过程中,持续监控生成结果并收集用户反馈。根据用户反馈和评估指标,对模型进行调整和优化,以不断提高生成内容的质量和准确性。
2.对抗性训练与技术改进,提高信息真实性审查
对抗性训练是指将两个模型相互竞争,一个模型负责生成内容,另一个模型负责判断生成的内容是否真实。通过对抗性训练技术的应用,模型的鲁棒性(Robustness,指控制系统在一定参数摄动下,维持其它某些性能的特性)将得到提升,能够更准确地抵御对抗性攻击和欺骗,保护模型的安全性和可信度。
通过对抗性训练(adversarial training)将生成式人工智能暴露于各种虚假信息和攻击性样本中,融合多模态信息提高对信息真实性的审查和判别能力,使其能够更加谨慎地辨别和生成真实的信息。OpenAI的GPT-3在训练过程中采用该方法,提高了其对虚假信息的辨别能力,该模型在生成文本方面取得了显著的进展。
此外,研究人员和开发者应不断提出新的对抗性训练算法,以应对不断变化的对抗性攻击技术,进一步提高模型的抗攻击能力。并强化自动审核和人工审核相结合,提高信息真实性审查的准确性和效率。自动审核可以通过机器学习算法和自然语言处理技术实现,而人工审核可以提供更高层次的判断和辨别能力。
(四)
平台严把内容审核
社交媒体平台应加强对生成式人工智能算法的监管和审核,制定明确的审核准则和规则,明确禁止的内容类型和违规行为,以指导审核人员进行审核。并对传播虚假信息的行为进行打击和处罚。
同时,平台应建立专业的审核团队,由经验丰富的人员组成,具备良好的专业素养和道德标准,负责对内容进行审核。平台可引入技术辅助审核工具,如自然语言处理和机器学习算法,帮助审核人员快速发现和识别违规内容。或是借鉴Facebook的第三方事实核查合作伙伴计划(Third-Party Fact-Checking Partnership),与多个事实核查机构合作,通过审核和标记虚假信息,减少其在社交媒体上的传播。此外,平台应加强用户举报机制,鼓励用户积极举报违规内容,以便审核人员及时处理。
结语
生成式人工智能的学习和判断机制相较于决策式机器人的更为灵活,且更贴近人类的语言模式。但即使生成式人工智能汇集海量信息数据,通过对抗性训练选取极贴近真实数据的虚拟数据输出,仍因其本身“联合概率”的学习判断机制以及数据库质量瑕疵的限制,传播的信息准确性存在瑕疵。
人工智能技术的发展影响着瞬息万变的国际社会以及人类的日常生活,然法律在人工智能规制和监督方面属薄弱之处。无论是元宇宙或是现实生活,人工智能作为社会生活的重要“参与者”,需要专项规则以匡正秩序。法律的滞后性与科技发展的飞速性形成强烈的时代冲突,法律作为定分止争者,当未雨绸缪。
当前进入人类社会的人工智能尚且不存在自我意识,结合法理学原理,笔者以为其法律地位应作为民法之“物”,不足以作为真正的“人”看待。但2022年谷歌智能研究中心开发的人工智能机器人LaMDA疑似拥有自我意识和人类情感,人类无法保证科技的发展一直在可控阶段,当人工智能有了自我意识和情感,人类必将面临着全局性的、系统性的、扩张性的风险与挑战,届时该如何定位其法律地位,如何约束人工智能,如何应对新生的科技文明与人类文明的冲击,是值得未来继续探讨的话题。
原标题:《王美辰|生成式人工智能助推虚假信息泛滥的法律问题分析——以“Deepfake”为例》
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。





- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2026 上海东方报业有限公司




