10分钟骗走430万,如何堤防诈骗新技术?
01
AI骗子,防不胜防
AI进化的速度有多快,骗术也跟着变得更狠。
福州一位科技公司的老板,某天突然接到了个好友的微信视频,说是自己的朋友在外地竞标,需要 430 万的保证金,想走他的公司账户过个账。老郭在确认视频通话里的人和声音都是他朋友之后,就同意了。
随后,对方就给老郭发了一张银行卡转账成功的截图,说是钱已经转到老郭的户头上了,由于老郭之前已经确认了朋友的身份,在没确认钱到帐与否的情况下,直接就把 430 万转到了好友给的银行卡上。
结果,这是一场骗局,还是AI操控的。虽然接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。
还有利用AI进行声音合成实施的诈骗。骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
已经有人因为AI声音被骗了。曾有某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金,因为老板的口音十分逼真,财务也信了,在1小时内转款完成,转完才发现被骗。
AI 换脸早已不是什么新鲜事,很多短视频鬼畜博主都精通这种操作,但拟声技术相对复杂一些,毕竟犯罪分子需要获取你的声音,然后通过软件将声音变成他们想要的内容。
实际上,如今的骗子想要获取声音也并不难,最普遍的方法就是骚扰电话,只要你接电话后并说了几句话,那么犯罪分子就会对你的声音进行录制,并提取你声音的信息。
有业内人士表示,犯罪分子通过这一套流程进行诈骗的成功率基本是 100%,尤其是面向那些并不懂AI、防范意识可能薄弱的老年群体,AI诈骗更容易发生。
类似的声音骗局,国外也早有发生。
一个国外的诈骗公司,使用 AI 模拟了“卷福”的音频,打电话给一家新西班牙的小电影公司,称想要和对方合作,并要求对方先打款 20 万英镑才能见面,结果在电影公司付完钱之后,他们才发现这次事件,完完全全就是一场AI骗局。
对于AI骗局,有律师表示,使用人工智能技术手段模仿真人面容、声音,冒充亲友、熟人、领导等,很容易达到以假乱真的程度,具有极强的迷惑性。与其他类型电信诈骗相比,AI诈骗迷惑性更强,针对性更强,辨识更困难。
如今,耳听,眼见都不一定为实,各种骗局真是让人防不胜防。
02
AI有多强大?让孙燕姿本人都害怕
最近,关于AI还发生了一个热点:孙燕姿本人亲自回应AI孙燕姿。
对于热门歌手AI,孙燕姿自己都承认,“讽刺的是,人类再怎么快也无法超越它。”
她在回应小作文里写道,“人类无法超越AI技术已指日可待,凡事皆有可能,凡事皆无所谓。”就算暂时能够辨认出AI歌手和真人歌手的区别,很快这条护城河也将不复存在。这种被虚拟淹没真实的感受,如今已经在全世界蔓延。
AI不光是唱歌可以完全贴近真人,连直播带货的活都可以接。
最近有人在直播间里发现,正在卖货的竟是当红女星。然而再定睛一看,这些明星居然是使用了AI实时换脸技术的普通主播。
AI实时换脸,正在直播间悄然出现,杨幂、迪丽热巴、angelababy等当红女星,成为了AI换脸的热门。虽然目前还没有曝出被骗新闻,但由于明星脸的带货主播往往拥有更好的引流效果,消费者或明星粉丝很可能会冲着明星效应进行消费而被坑骗。
而这种技术门槛也并不高。有媒体报道,AI实时换脸全套模型购买价仅需3.5万元。
买不起全套模型,还有“AI换脸特效插件”供买家选择,售价数百元,只对电脑配置有一定要求,购买后使用者只需更换素材照片,软件就能自己运行完成“换脸”。这款软件不仅能对图片进行换脸,也能在视频上进行换脸。
AI换脸的风靡,还带来了“AI脱衣”的新问题。早在今年3月,一则“女子地铁照被AI一键脱衣传播”的新闻冲上了热搜,一名女性搭乘地铁时的一张照片被人用AI软件“一键脱衣”,遭到恶意传播,罪犯还广泛散布不实信息对该女子进行污蔑。
更可怕的是,AI深度伪造(DeepFake)内容,可以利用互联网平台在全球范围内病毒式传播。比如AI现在居然还能通过发布假新闻,让股市抖三抖。
几天前,多个经过验证的推特账户,齐刷刷分享了一张声称在五角大楼附近发生爆炸的假照片,顿时引起轰动,并导致股市短暂下跌。
这张照片虽然具有AI生成的所有特征,但是因为被许多经过验证并打上了蓝色勾的推特账户分享,不少人还是信以为真,谣言一传十十传百,甚至有人声称这张照片与彭博新闻有关。
连印度一家电视台都信了,共和国电视台(Republic TV)报道称五角大楼发生了爆炸,并在节目中播放了这张假图片,后来,当发现美国当地官员证实没有发生此类事件后,共和国电视台快速撤回了这则报道,这一番操作下来也是相当尴尬。
03
AI骗局,并非没有破绽
随着AI技术的不断发展,被AI骗的人越来越多。根据杀毒软件 McAfee 公布的最新报告,基于人工智能的语音诈骗越发猖獗,在接到 AI 诈骗电话的群体中,有 77% 的人会上当受骗。
今年3月,一份名为《暂停大型人工智能研究》的公开信在未来生命研究所官网上发布,包括特斯拉CEO埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫•沃兹尼亚克(Steve Wozniak)等人在内的千名科学家、企业高管签字呼吁暂缓GPT-4以上版本的研发,他们矛头所指都是强大AI技术可能的负面用途。
不过AI诈骗虽然逼真,但它并不是没有破绽,比如AI换脸技术会导致脸部变形,一些主播低下头头顶会发黑,AI的声音,也很难表达真实的主观情绪。
正如不少网友所说,AI孙燕姿“根本不是孙燕姿的唱法。”“AI孙燕姿能模仿她的音色,但模仿不到她的感情;AI孙燕姿能模仿她的声音,但模仿不了她的现场。”
与此同时,国内与AI换脸、换声相关的法律法规也在不断完善。
在过去,“AI换脸”被大量使用到影视剧二度创作、趣味恶搞视频、表情包制作当中,其中隐藏的法律风险和侵权纠纷,如今都在得到重视,不少擦边行为已经得到了及时的惩治。
比如近期,据企查查官网信息显示,上海鱼腥草信息科技有限公司就因旗下一款换脸手机APP遭多位网红博主起诉,很快在监管部门约谈后,这款App下架,因为换脸侵犯了公民的肖像权。
去年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI肆意换脸的空间将越来越小。
就在4月11日,国家互联网信息办公室又迅速起草了《生成式人工智能服务管理办法(征求意见稿)》,涉及的生成式人工智能包括基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,可以说,对当下的AI伪造都进行了更为全面的约束。
AI究竟是天使还是魔鬼,全在于使用者的一念之差,但唯一可以确定的是,潘多拉魔盒,已经打开。
参考资料:
《AI诈骗正在全面爆发》,红星新闻;
《“AI换脸”诈骗防不胜防?要用“法”打败“魔法”!》,京报网;
《警惕四大AI新骗术,有人10分钟被骗430万》,智东西
原文标题 : 10分钟骗走430万,如何堤防诈骗新技术?
最新活动更多
-
即日-11.13立即报名>>> 【在线会议】多物理场仿真助跑新能源汽车
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【限时免费下载】TE暖通空调系统高效可靠的组件解决方案
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论