当前位置:首页 > 网络安全 返回

AI诈骗要这样防范……

2024-03-19 08:41:00来源:湖北省反诈中心
  今年的3·15晚会上
  
  关于利用人工智能
  
  (AI技术)实施诈骗的曝光
  
  引起社会各界的广泛关注
  
  公安机关提醒广大群众
  
  在具体案例中
  
  无论是AI拟声还是AI视频通话
  
  持续的时间都很短暂
  
  仅有几秒钟就被骗子要求结束
  
  因为这些视频通话
  
  往往是骗子提前制作的仿冒视频
  
  在目前的技术条件下
  
  想在点对点的实时通话过程中
  
  实现仿真程度极高的AI换脸较难
  
  大家掌握以下方法
  
  可以进行有效防范
  
  据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤,其背后最核心的包括三个部分:
  
  首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。
  
  其次,将这些特征与目标人脸图像进行匹配、替换、融合。
  
  最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
  
  如何识别AI“换脸换声”
  
  中国计算机学会安全专业委员会数字经济与安全工作组成员表示,可以要求对方视频对话的时候,在脸部的前面通过挥手的方式进行识别。因为在挥手的过程中,会造成面部数据的干扰。骗子伪造的人脸会产生一定抖动、闪现,或者其它异常情况。
  
  
  在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
  
 
  中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。如果是真人的鼻子,按下去会变形,但AI生成的鼻子不会。同样,脸部也一样,真人脸部按下去会变形。
  
  提高防范意识
  
  避免个人生物信息泄露
  
  除了知晓一些辨别AI换脸诈骗的小诀窍,我们每个人都应该提高防范意识,养成良好的上网习惯。
  
  首先,做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护;做好个人的手机、电脑等终端设备的软硬件安全管理。
  
  第二,不登录来路不明的网站,以免被病毒侵入。
  
  第三,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上防范AI换脸诈骗。
  
  AI技术“换脸换声”
  
  可能存在法律风险
  
  法律专家表示,用AI技术为他人“换脸换声”甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:
  
  一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。
  
  二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。
  
  三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。
  
  
  “眼见不一定为实”
  
  “有图有视频也不一定是真相”
  
  的时代已经来临
  
  提前了解才能有心防范
  
首页
当前位置:网络安全

AI诈骗要这样防范……

2024-03-19来源:湖北省反诈中心
  今年的3·15晚会上
  
  关于利用人工智能
  
  (AI技术)实施诈骗的曝光
  
  引起社会各界的广泛关注
  
  公安机关提醒广大群众
  
  在具体案例中
  
  无论是AI拟声还是AI视频通话
  
  持续的时间都很短暂
  
  仅有几秒钟就被骗子要求结束
  
  因为这些视频通话
  
  往往是骗子提前制作的仿冒视频
  
  在目前的技术条件下
  
  想在点对点的实时通话过程中
  
  实现仿真程度极高的AI换脸较难
  
  大家掌握以下方法
  
  可以进行有效防范
  
  据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤,其背后最核心的包括三个部分:
  
  首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。
  
  其次,将这些特征与目标人脸图像进行匹配、替换、融合。
  
  最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
  
  如何识别AI“换脸换声”
  
  中国计算机学会安全专业委员会数字经济与安全工作组成员表示,可以要求对方视频对话的时候,在脸部的前面通过挥手的方式进行识别。因为在挥手的过程中,会造成面部数据的干扰。骗子伪造的人脸会产生一定抖动、闪现,或者其它异常情况。
  
  
  在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
  
 
  中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。如果是真人的鼻子,按下去会变形,但AI生成的鼻子不会。同样,脸部也一样,真人脸部按下去会变形。
  
  提高防范意识
  
  避免个人生物信息泄露
  
  除了知晓一些辨别AI换脸诈骗的小诀窍,我们每个人都应该提高防范意识,养成良好的上网习惯。
  
  首先,做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护;做好个人的手机、电脑等终端设备的软硬件安全管理。
  
  第二,不登录来路不明的网站,以免被病毒侵入。
  
  第三,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上防范AI换脸诈骗。
  
  AI技术“换脸换声”
  
  可能存在法律风险
  
  法律专家表示,用AI技术为他人“换脸换声”甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:
  
  一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。
  
  二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。
  
  三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。
  
  
  “眼见不一定为实”
  
  “有图有视频也不一定是真相”
  
  的时代已经来临
  
  提前了解才能有心防范