澎湃Logo
下载客户端

登录

  • +1

大学生接5秒视频电话被骗3000元,脸和声音全是假的

2023-05-25 11:59
来源:澎湃新闻·澎湃号·媒体
字号

近日,包头警方发布一起利用AI换脸技术实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。这起案件引发了社会的广泛关注和讨论,人们纷纷担忧,随着人工智能的发展,在带来便捷与创新的同时也带来了巨大的风险和挑战,需要各类平台和监管方加强合作和规范,保障人工智能的健康、可持续和负责任的发展。

据了解,这起案件中,骗子首先“攻陷”了郭先生好友的微信,然后用AI合成了其好友的脸和声音,通过视频聊天骗取了郭先生的信任。在得知其好友需要借用公司账户转账的情况下,郭先生没有核实钱是否到账,就将430万元转给了对方提供的账户。当他发现被骗时为时已晚。

随着人工智能技术的进步和普及,AI换脸、AI拟声等技术被用于诈骗、敲诈、侵权等不法行为中,给公众造成了严重的财产损失和精神伤害。上游新闻通过公开资料对近期发生的AI诈骗案例进行了梳理。

1、 大学生接5秒视频电话被骗3000元

据湖北网警巡查执法公众号消息,2022年4月,湖北省某市一名大学生肖丽(化名)收到同学通过QQ跟她借钱的信息。对方打过来一段五秒的视频电话,肖丽看到确实是本人,便放心转账3000元。然而,在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,那段视频很有可能是被人换了脸。

▲AI电话诈骗作案流程。图片来源/湖北网警巡查执法

另据新华网报道,2021年12月,江苏省某市一名男子小李(化名)在网上看到一则招聘信息,并添加了对方微信。对方自称是某知名企业的人力资源部经理,并通过视频与小李沟通。小李被告知通过面试后需要缴纳2000元培训费,并提供身份证、银行卡等信息。小李照做后发现被骗。原来对方用AI换脸技术伪装成该企业真正的经理,并利用其社交媒体上发布的视频进行合成。

▲识别AI换脸诈骗。图片来源/湖北网警巡查执法

据央广网报道,2021年11月,浙江省某市一名女子小陈(化名)在网上认识了一名自称是外籍人士的男子,并与其发展成为恋人。对方多次通过视频聊天与小陈互动,并承诺将来会来中国与她见面。后来对方以各种理由向小陈索要钱财,并威胁如果不给就会将他们之间的不雅视频曝光。小陈报警后才发现对方用AI换脸技术冒充了一个真实存在的外国男子,并利用网络上搜集到的视频素材进行合成。

而据上游新闻了解,AI换脸的案例其实早在2018年便已经在美国出现,当时一段“奥巴马”呛声特朗普的视频在全美疯传,但事后被证明是利用AI换脸技术伪造的。这个视频制作人表示,制作视频的目的是提醒公众警惕深度伪造视频的危害。

据报道,同样是在美国,一位母亲接到一个自称是“绑匪”的诈骗电话,对方称劫持了她15岁的女儿,并用合成语音模仿女儿的“呼救声”,要求交出100万美元的赎金。幸运的是她的丈夫及时证明了女儿是安全的。

2、 多位明星被AI换脸直播带货

据媒体报道,除了电信诈骗外,AI换脸技术还被用于直播带货领域。近日有不少网友在观看电商平台的直播时发现卖货主播竟是一些当红女星。但再定睛一看,这些带货“明星”竟然是使用了AI实时换脸技术的普通主播。

据中国新闻网报道,2021年5月,“迪丽热巴”在某电商平台直播卖货,“迪丽热巴”身穿中式服装,在直播间推荐各种产品,并与观众互动聊天。但仔细观察可以发现,“迪丽热巴”的嘴唇和眼睛有些不协调,“迪丽热巴”的声音也有些变调。

另据羊城晚报报道,2021年4月,“杨幂”在某电商平台直播卖货,“杨幂”身穿白色连衣裙,在直播间推荐各种美妆产品,并与观众互动聊天。但仔细观察可以发现,“杨幂”的眼睛有些死板,“杨幂”的声音也有些沙哑。

以上案例仅是冰山一角。据专家分析,在AI换脸、AI拟声等技术背后存在着一条条黑色产业链。骗子通过非法渠道获取公众的个人信息、语音、视频等数据,并利用网络平台或软件提供的AI服务进行合成或编辑,从而制造出逼真的假象进行欺诈或敲诈。对此,平安岷县政务号曾发文总结了近期AI诈骗的几种类型:

声音合成:骗子通过提取某人的声音素材,利用AI技术合成语音,冒充亲友、领导、客服等身份,诱导受害者转账或泄露个人信息。

AI换脸:骗子通过截取或收集某人的面部视频画面,利用AI技术换脸,制造视频聊天的假象,骗取受害者的信任和钱财。

AI程序筛选受害人:骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

3、 应对AI诈骗三方面能力需提高

为应对愈演愈烈的AI诈骗,有媒体表示需提高三方面能力。

个人信息保护意识和能力:个人信息泄露是精准诈骗的根源,骗子利用盗取或收集的个人信息,模拟熟人或权威人士的声音和面部,进行诱导或威胁。因此,我们应该保管好个人信息,包括人像视频、身份证照片、经济状况等,不要随意向陌生人透露或授权。在使用社交平台时,要注意设置隐私权限,避免个人信息被滥用或泄露。

▲AI换脸技术展示。

识别和防范虚假信息的能力:AI技术可以生成逼真的虚假信息,比如声音合成、AI换脸、AI写作等,这些信息可能用于诱骗、误导或操纵公众。因此,我们应该多学习诈骗的预防知识,增强辨别真伪的能力。在接到陌生电话或视频时,要保持警惕,不要轻信对方的身份和说辞。在转账之前,要核实好身份,比如打个电话问问,或者用对方常用的微信进行信息核实。

技术防范和监管能力:AI技术的发展和应用需要在法律法规和伦理指引的共同作用下向善发展。监管部门应该建立专门的人工智能安全机构,制定人工智能标准,对AI技术进行管理和监督,监督AI技术在不同领域内的应用。同时,技术企业应该加强数据合规建设,在人工智能设计中嵌入个人信息保护机制,并采用技术措施和管理制度,确保个人信息安全。社交媒体平台应该建立健全对违法、不良信息的识别和阻断机制,并及时与公安机关合作,打击AI诈骗行为。

新闻多一点:

什么是AI换脸技术

AI换脸技术是一种利用人工智能和计算机视觉技术,将一张人脸图像的特征和表情转换到另一张人脸图像上,实现换脸效果的技术。其主要原理如下:

首先,需要使用人脸检测算法来识别图像或视频中的人脸位置,通常使用基于卷积神经网络(CNN)的算法。

然后,需要使用特征提取算法来提取人脸的特征向量,包括面部形状、纹理和颜色等信息,通常使用基于CNN的算法。

接着,需要使用关键点定位算法来确定人脸上的关键点位置,例如眼睛、鼻子和嘴巴等。

然后,需要使用变换矩阵计算算法来计算一个变换矩阵,将源图像中的人脸转换成与目标图像中的人脸相同的姿态和表情。

最后,需要使用图像合成算法将变换后的源图像与目标图像融合在一起,生成换脸后的结果图像或视频,通常使用图像融合、纹理映射、光照调整等技术。

上游新闻综合自 新华网 央广网 羊城晚报 每日经济新闻 中工网 澎湃新闻等 图片来源/互联网 编辑 向家庆 责编 谢聘 审核 廖爽

更 | 多 | 新 | 闻

原标题:《大学生接5秒视频电话被骗3000元,脸和声音全是假的》

阅读原文

    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。

    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈