2023年5月22日 阴
今日值班:黄河 郑重
【资料图】
时刻夜谈第66期
以前我们出门要看好自己的钱包,今后也许会变成要看好自己的脸。
日常生活中也许你听到过民警这样跟你讲解防诈骗常识——遇到转账要打电话核实,可后来诈骗分子学会了拟声技术,“耳听”也不一定为真了,民警又提醒遇到转账最好打视频核实清楚,而现在,打视频也不一定靠谱了。
随着人工智能的发展,人们的生活在很多方面都发生了改变,电视里的新闻主播也许就是人工AI智能合成的,这些视频生成、图片生成的AI产品,在某些方面已经可以替代人类。然而,骗子的诈骗手段也越来越科技化,竟然用上了AI换脸技术。
近日,包头警方发布一起利用AI实施电信诈骗的典型案例。4月20日中午,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万保证金。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有进一步核实,就分两笔把430万转到了好友朋友的银行卡上。后郭先生拨打好友电话谈及此事,才知道被骗。原来是骗子通过智能AI换脸和拟声技术,佯装好友轻易地骗过了郭先生,对他实施了诈骗。接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。
科技改变生活,可骗子也利用科技使得这些诈骗手段变得越来越逼真。最近爆火的AI换脸,只需要提供一张带脸的照片,就可以把自己置换成视频里的明星,利用数字技术,还可以创造出一个想象中的虚拟人,能陪人聊天,而且仿真度非常高,毫无违和感。上面案例中的郭先生正是因为通过微信聊天,看到并听到朋友逼真的视频图像和声音,才会毫不怀疑地将钱转给对方。
在这个信息时代,“脸”是什么呢?我们的日常生活中,越来越多运用到了“脸”,比如刷脸打卡、刷脸支付、刷脸登录等等,这样看,“脸”更像一把能打开信息之门的钥匙,但是如果别人能拿到这把钥匙呢?比如现在许多家庭将传统机械锁都换上了智能门锁,有的不但能指纹开启,还能通过刷脸识别,假设有人利用照片合成一张脸部动态视频,是否能打开智能门锁?假如有人刷你的脸登录了你的银行账号,该怎么办?据悉,静态照片通过AI软件生成动态视频后,在乘坐地铁进行刷脸支付进出站时可秒过,不仅如此,在刷脸认证小区门禁时也可直接上“视频”通行。
另外,一些不法分子还会用明星的照片合成淫秽视频进行售卖而获利。朋友之间利用“AI换脸技术”即便只是用来搞笑或者制作恶搞视频,也有可能涉及侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪。
科技的加持,应该是让人们的生活越来越方便和安全,但是,技术也许是一把双刃剑,人工智能技术滥用会让个人信息更轻易地被操纵,在这背后不仅仅会产生隐私泄露、身份危机等问题,还产生了如色情黑色产业链和金融诈骗等等问题。 所以,如何让AI技术更安全,如何让AI技术使用更加合法合规,显得至关重要。
针对花样翻新的智能AI诈骗,公众要如何提高防诈骗能力?首先,要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;其次,网络转账前要通过电话、视频等多种沟通渠道核验对方身份,必要时可以“暗语”、双方共同的经历或彼此的秘密等核验手段核实对方身份,一旦发现风险,及时报警求助。如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。如不慎被骗或遇可疑情形,请注意保护证据并立即报警。