当前位置:首页 > 网络管理 返回

切勿“玩过界”!AI应用使用不当或被追究刑事责任

2024-11-14 10:48:00来源:央视新闻客户端

  AI,也就是人工智能技术,它的发展为我们的生活带来了许多便利,然而也引发了一些乱象。以AI语音合成技术为例,只要提取一个人足够的声音样本,就能“克隆”出他的声音,制作出AI人声视频。近期,网络短视频平台上就出现了这样一类视频。视频中,AI合成的声音与一些名人相似度极高,让网友真假难辨。视频内容包括恶搞调侃等,其中甚至还有不雅词汇,造成不良社会影响,引发争议。这样随意使用名人声音的行为是否合法?又该如何监管呢?

恶搞造谣

AI合成公众人物声音引争议

  记者在短视频平台搜索某企业家名字,搜出来的几乎都是用AI制作的他的声音恶搞的视频。

  同样记者发现,网络上用AI名人的声音制作短视频现象比较普遍,有人就用AI制作了刘德华的声音为自己增加流量。

  该视频出现后,刘德华电影公司连续发布两则声明,提醒各方人士注意,避免落入伪造刘德华声音的AI语音合成技术骗局。

滥用公众人物声音

生成音频仅需30秒

  记者调查发现,目前网络上可以使用的AI声音合成工具或者网站,只要30秒就能生成出八分相似的声音。

  比如利用这类工具或网站,网友可以自己采集一段名人的声音放到AI软件中,软件就能模拟名人的声音朗读文本内容。同时,短视频平台上还有大量的视频主播在教如何用AI合成名人的声音。一些网络主播甚至鼓励网友用名人的声音去进行带货等商业活动。

AI声音合成技术已较成熟

能以假乱真

  这些以假乱真的声音,究竟是如何用AI合成出来的呢?专家介绍,当前AI声音合成技术背后,主要应用的是人工智能的深度学习算法,通过AI模型,对采集的声音样本进行处理,从而实现声音的“克隆”。

  中国网络空间安全协会人工智能安全治理专业委员会专家 薛智慧:这个处理过程中主要涉及了两个子模型,第一个子模型主要对语言的基础进行处理,比如说它的内容、语速、语调以及情感等进行处理。第二个是音色模型,主要对第一个模型里生成的语言加上音色的信息,最终进行合成。

  AI声音合成技术到底可以逼真到什么程度,记者做了一次实验,让AI软件读取了记者的声音,随后输入一段文字,让AI合成记者的声音。

  总台央视记者 崔世杰:大约30分钟以前,AI采集了我的声音,经过半个小时的训练和分析以后,AI克隆的声音非常像我的声音。

  专家表示,目前AI声音合成技术比较成熟,在国外已经推出了可以模仿任何人的付费软件产品。

民法典规定

自然人声音受法律保护

  AI合成的公众人物声音真的可以随意拿来为自己所用吗?《中华人民共和国民法典》第1023条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。对这条规定,具体应该如何理解呢?法律专家进行了解读↓

  中国政法大学副教授 朱巍:我们现在看到的一些编辑的人脸,包括声音在内,实际上按照民法典的规定,都属于当事人权利人自己的人格权利,未经允许的话,任何人是不得侵害的。不仅不能直接用,也不能使用当事人的人脸信息、声音信息进行深度合成,不能把它放到这个深度合成的物料库里或场景库里。同时,通过编辑的肖像和声音,用这种方式展现出的相关内容,属于伪造的信息,按照网络安全法的规定,这个属于违法信息。

  另外,法律专家表示,使用AI合成名人的声音发表自己的作品,有可能会追究发布者的刑事责任。

  中国政法大学副教授 朱巍:未经权利人同意去随便使用别人的肖像和声音,并且对外发布的话,按照民法典的规定是一种侵权责任,要承担包括精神损害赔偿在内的相关责任。如果把相关的视频,包括声音编辑之后形成了相关的内容,如果这个内容违反了网络安全法的相关规定,当事人可能要承担包括刑事责任在内的法律责任。

短视频平台应该承担哪些责任?

  AI合成公众人物声音制作的视频在短视频平台大量传播,针对此类乱象,短视频平台应该承担哪些责任呢?

  中国政法大学副教授 朱巍:作为信息传播平台来讲,虽然可能并不是深度合成服务的提供者,但是它主要传播了这些深度合成产生的信息,它应该通过包括人工智能、人工审核的方式,发现一些高度怀疑是AI合成的作品,要强制性加以标记。如果发现利用AI合成的声音和视频传播虚假消息,并不是把视频删掉就完了,应当对发布者采取包括信用管理在内的强制措施,包括他的账号的营利权限,以及一些相关的特殊权限,要根据信用的降低随之产生必要的处罚措施。

AI生成合成内容

应有明显可感知标识

  AI生成合成内容的逼真程度已经让普通人难以辨别,规范这类内容,国家也已经开始行动。今年9月,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,目前征求意见阶段已经结束。这一《办法》明确要求,AI生成合成的内容要在显著位置作出标识,也就是要给它们打上“专属水印”。

  “征求意见稿”提出,人工智能生成合成内容是指利用人工智能技术制作、生成、合成的文本、图片、音频、视频等信息,相关内容标识包括显式标识和隐式标识。显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识。隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。

  “征求意见稿”要求,服务提供者提供的生成合成服务属于《互联网信息服务深度合成管理规定》第十七条第一款情形的,也就是“智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务” ,应当按照以下要求添加显式标识:

  在文本的起始、末尾、中间适当位置添加文字提示或通用符号提示等标识,或在交互场景界面或文字周边添加显著的提示标识;

  在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识;

  在图片的适当位置添加显著的提示标识;

  在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识;

  呈现虚拟场景时,应当在起始画面的适当位置添加显著的提示标识,可在虚拟场景持续服务过程中的适当位置添加显著的提示标识;

  其他生成合成服务场景应当根据自身应用特点添加具有显著提示效果的显式标识。

  另外还要求,用户向提供网络信息内容传播平台服务的服务提供者上传生成合成内容时,应当主动声明并使用平台提供的标识功能进行标识。任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识,不得为他人实施上述恶意行为提供工具或服务,不得通过不正当标识手段损害他人合法权益。

首页
当前位置:网络管理

切勿“玩过界”!AI应用使用不当或被追究刑事责任

2024-11-14来源:央视新闻客户端

  AI,也就是人工智能技术,它的发展为我们的生活带来了许多便利,然而也引发了一些乱象。以AI语音合成技术为例,只要提取一个人足够的声音样本,就能“克隆”出他的声音,制作出AI人声视频。近期,网络短视频平台上就出现了这样一类视频。视频中,AI合成的声音与一些名人相似度极高,让网友真假难辨。视频内容包括恶搞调侃等,其中甚至还有不雅词汇,造成不良社会影响,引发争议。这样随意使用名人声音的行为是否合法?又该如何监管呢?

恶搞造谣

AI合成公众人物声音引争议

  记者在短视频平台搜索某企业家名字,搜出来的几乎都是用AI制作的他的声音恶搞的视频。

  同样记者发现,网络上用AI名人的声音制作短视频现象比较普遍,有人就用AI制作了刘德华的声音为自己增加流量。

  该视频出现后,刘德华电影公司连续发布两则声明,提醒各方人士注意,避免落入伪造刘德华声音的AI语音合成技术骗局。

滥用公众人物声音

生成音频仅需30秒

  记者调查发现,目前网络上可以使用的AI声音合成工具或者网站,只要30秒就能生成出八分相似的声音。

  比如利用这类工具或网站,网友可以自己采集一段名人的声音放到AI软件中,软件就能模拟名人的声音朗读文本内容。同时,短视频平台上还有大量的视频主播在教如何用AI合成名人的声音。一些网络主播甚至鼓励网友用名人的声音去进行带货等商业活动。

AI声音合成技术已较成熟

能以假乱真

  这些以假乱真的声音,究竟是如何用AI合成出来的呢?专家介绍,当前AI声音合成技术背后,主要应用的是人工智能的深度学习算法,通过AI模型,对采集的声音样本进行处理,从而实现声音的“克隆”。

  中国网络空间安全协会人工智能安全治理专业委员会专家 薛智慧:这个处理过程中主要涉及了两个子模型,第一个子模型主要对语言的基础进行处理,比如说它的内容、语速、语调以及情感等进行处理。第二个是音色模型,主要对第一个模型里生成的语言加上音色的信息,最终进行合成。

  AI声音合成技术到底可以逼真到什么程度,记者做了一次实验,让AI软件读取了记者的声音,随后输入一段文字,让AI合成记者的声音。

  总台央视记者 崔世杰:大约30分钟以前,AI采集了我的声音,经过半个小时的训练和分析以后,AI克隆的声音非常像我的声音。

  专家表示,目前AI声音合成技术比较成熟,在国外已经推出了可以模仿任何人的付费软件产品。

民法典规定

自然人声音受法律保护

  AI合成的公众人物声音真的可以随意拿来为自己所用吗?《中华人民共和国民法典》第1023条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。对这条规定,具体应该如何理解呢?法律专家进行了解读↓

  中国政法大学副教授 朱巍:我们现在看到的一些编辑的人脸,包括声音在内,实际上按照民法典的规定,都属于当事人权利人自己的人格权利,未经允许的话,任何人是不得侵害的。不仅不能直接用,也不能使用当事人的人脸信息、声音信息进行深度合成,不能把它放到这个深度合成的物料库里或场景库里。同时,通过编辑的肖像和声音,用这种方式展现出的相关内容,属于伪造的信息,按照网络安全法的规定,这个属于违法信息。

  另外,法律专家表示,使用AI合成名人的声音发表自己的作品,有可能会追究发布者的刑事责任。

  中国政法大学副教授 朱巍:未经权利人同意去随便使用别人的肖像和声音,并且对外发布的话,按照民法典的规定是一种侵权责任,要承担包括精神损害赔偿在内的相关责任。如果把相关的视频,包括声音编辑之后形成了相关的内容,如果这个内容违反了网络安全法的相关规定,当事人可能要承担包括刑事责任在内的法律责任。

短视频平台应该承担哪些责任?

  AI合成公众人物声音制作的视频在短视频平台大量传播,针对此类乱象,短视频平台应该承担哪些责任呢?

  中国政法大学副教授 朱巍:作为信息传播平台来讲,虽然可能并不是深度合成服务的提供者,但是它主要传播了这些深度合成产生的信息,它应该通过包括人工智能、人工审核的方式,发现一些高度怀疑是AI合成的作品,要强制性加以标记。如果发现利用AI合成的声音和视频传播虚假消息,并不是把视频删掉就完了,应当对发布者采取包括信用管理在内的强制措施,包括他的账号的营利权限,以及一些相关的特殊权限,要根据信用的降低随之产生必要的处罚措施。

AI生成合成内容

应有明显可感知标识

  AI生成合成内容的逼真程度已经让普通人难以辨别,规范这类内容,国家也已经开始行动。今年9月,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,目前征求意见阶段已经结束。这一《办法》明确要求,AI生成合成的内容要在显著位置作出标识,也就是要给它们打上“专属水印”。

  “征求意见稿”提出,人工智能生成合成内容是指利用人工智能技术制作、生成、合成的文本、图片、音频、视频等信息,相关内容标识包括显式标识和隐式标识。显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识。隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。

  “征求意见稿”要求,服务提供者提供的生成合成服务属于《互联网信息服务深度合成管理规定》第十七条第一款情形的,也就是“智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务” ,应当按照以下要求添加显式标识:

  在文本的起始、末尾、中间适当位置添加文字提示或通用符号提示等标识,或在交互场景界面或文字周边添加显著的提示标识;

  在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识;

  在图片的适当位置添加显著的提示标识;

  在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识;

  呈现虚拟场景时,应当在起始画面的适当位置添加显著的提示标识,可在虚拟场景持续服务过程中的适当位置添加显著的提示标识;

  其他生成合成服务场景应当根据自身应用特点添加具有显著提示效果的显式标识。

  另外还要求,用户向提供网络信息内容传播平台服务的服务提供者上传生成合成内容时,应当主动声明并使用平台提供的标识功能进行标识。任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识,不得为他人实施上述恶意行为提供工具或服务,不得通过不正当标识手段损害他人合法权益。