元宇宙网:看似“人工智能”,实则“人为陷阱”——揭开借助AI技术实施诈骗的新套路

AI8个月前发布 admin
368,268 0
元宇宙网:看似“人工智能”,实则“人为陷阱”——揭开借助AI技术实施诈骗的新套路

号称可提供ChatGPT服务,实际是冒牌AI视频电话熟悉的“亲友”,是不分子AI换脸模拟而成;博取流量AI技术编造虚假谣言,流量变“流毒”……

随着人工智能发展迭代生成式AI正以前所未有的速度重塑着日常生活,但由此衍生出的新骗局新套路也在刷们对风险防范认知。这后不仅关乎广大消费者财产安全,还潜藏着安全风险和隐患。记者梳理近期管理部门查处的AI相关案件,揭开人工智能“圈套”背后的真相

9块9使用ChatGPT?其实是“套壳AI

自人工智能产品ChatGPT爆火,企业看到无限“钱景”,强“关联”。一时间市场上涌现出不少与ChatGPT“沾亲故”的服务产品2023年2月,一个名为“ChatGPT在线”的公众号引起了上海市徐汇区监管部门的注意。

这个头像与ChatGPT原开发公司官方标识度相似的公众号,在用户短暂免费体验后即需注册会员付费使用支付9.9可以对话20次,随着对话次增加,其收也逐步提高。该公众号仅两个月就吸纳超36人的粉丝量,累计注册付费用户4231人,经营额共计125385.44元。

人员调查发现,该公众号的运营公司与实际ChatGPT开发公司并无关联。所谓“ChatGPT在线”也并非“ChatGPT”产品本身。“当人为实现销售目的,使用类似图像、名称及务简介等多种段实施复合性混淆为,利用‘ChatGPT’热点行攀附,混淆真实情况,谋取交易机会获取不当利益。”上海市徐汇区监督管理局执法稽查科副科长张琦说,当人行为违反了《中华人民共和国反不正当竞争法》第六条第(四)项的规定,市场监管部门已责令其停止违法行为,处以罚款,并要求其妥善处置相关消费纠纷。

记者发现,“冒牌AI”的现象并不少见。2023年,百度文心一言上市前夕,上出现大量打着“一言”旗号的社交媒体账号。随后百度官方发辟谣称“文心一言”尚未注册社交账号

“人工智能大模型开源生态的建立,让AI发展加速的同时也让生成式AI更容易被滥用。”中国行政法学研究常务理事、华东政法大学教授沈福俊认为,考虑到立法的滞后性,监管部门还需更加关注新技术发展对市场的影响,加大事前监管力度,充分运用现有的法律法规资源实施有效监管,切莫使新问题隐匿在“监管盲”。

张琦也表示,消费者出于对新兴技术的好,往往在不知不觉陷入“圈套”。“如果误用了别有用心的‘套壳AI’,甚至可能被不法分子套取个人信息,埋下安全隐患。”他建议,消费者在选择AI品时需仔细甄别,避免被商家误导。“如果购买到了仿冒产品,要保留好相应的产品购买凭证,主动联系监管部门,维护自身合法权益。”

“AI换脸”诈骗眼见不一定为实

只需一电话,不法分子就骗走了430万元2023年4月,福建省科技公司法定代表人郭先生接到“好友”的微信视频通话,对方称自己当下需要430万元保证用以项目竞标,想借用郭先生公司的账户“走个账”。因为有先前的通话,加之对“好友”的信任,郭先生陆续给对方转账共计430万元。随后郭先生再次联系好友时发现自己被骗。所幸在警方帮助下,成功止付拦截336.84万元。

据郭先生回忆,由于在视频确认了对方的孔和声音,所以毫不怀疑对方身份有诈。不仅如此,犯罪分子还精准了解郭先生与好友的关系,并成功盗取好友微信账号实施诈骗,令人不寒而栗。

AI技术的迭代升级让不法分子借助能AI换脸和拟声技术,就可轻松实现远程视频诈骗。记者调查发现,最近多地出现的AI换脸诈骗案件,均具备定制性、迷惑性等征。

其中,香港警方近期披露一起涉案金额高达2亿元的多人AI换脸诈骗案尤为典。据媒体报道,某公司职员受邀参加公司“多人视频会议”时,先后将2亿港元分别转账到5个本地银行账户内。据警方调查,这场视频会议中除了受害者外,其余均为AI换脸后的诈骗人员。

不少业内专家表示,随着文生视频大模型Sora多模态人工能的探索和出现,人们可能陷入“眼见也不一定为实”的困局。“一以来,银行等部门将实时视频用做检验身份的手段之一,如今其可靠性将面临巨大挑战。”沈福俊说,“随着人工智能技术的迭代升级,这类违法行为还可能演变出更多形态。”

沈福俊坦言,对此类AI换脸和AI拟声的恶性诈骗案件,若只依靠传统监管手段已不能防堵,监管部门在提升自我科技能力储备的同时,有必要引入新兴技术,探索用AI技术监管AI的可能。

从消费者角度出发,沈福俊建议提升全民个人信息保护意识,谨防隐私泄露。“不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息,在涉及转账交易等行为时,可以多角度询问身份信息,反复验证对方是否为本人。”

当前AIGC技术已在文本生成图片创作等方面广泛应用,输入几个关键词即可由AI快速生成一张画或一篇文章。但一些用户为博眼球、蹭热度,却将人工智能技术用以编“伪消息”,造“假通报”。

2023年6月,一条名为《浙江工业现大火浓烟滚滚,目击者称有爆炸声!》的视频在网络上流传,引发网友关注。后经相关部门核实为谣言。据调查,当事人为给自己账号涨粉引流,获取更多利益,通过非法渠道买了AI视频生成软件。该当事人将网络热门话题通过AI自动生成视频产品,并上传至多个热门视频平台

截至案发,相关当事人发布的虚假视频多达20余条,涉及浙江湖南上海四川等多个市,累计阅读观看量超过167万次。目前浙江绍兴上虞法院已开庭审理并当庭宣判了这起案件,两名被告均被判处有期徒刑。

但“AI谣言”仍时有发生。2024年1月,广西东兴市骆某某为博取流量,将其他地区的抗洪、救灾视频,经AI软件自动编辑,编造新疆乌什县发生地震的虚假视频信息。同年1月,四川网民在某平台发布贵州女婴被弃”的谣言文章。经调查,该涉谣文章由AI系统生成并发布,相关言论及照片均为不实信息。

技术的普及动自媒体产业繁荣。但一些网民为获取流量不惜利用技术手段编造生成虚假视频,让“AI谣言”在网络上传播,不仅给网络安全带来严峻挑战,也严重扰乱社会秩序。

2023年,最高人民法院最高人民检察院公安部联合发布的《关于依法惩治网络暴力违法犯罪的指导意见》中规定,对“利用‘深度合成’等生成式人工智能技术发布违法信息”的情形,依法从重处罚。

对此,沈福俊等多位专家表示,一方面,要提高广大自媒体经营者的法律意识,从源头减少此类“AI谣言”的产生;另一方面,监管部门也要加强相关案件的宣传推广,提高网民对“AI谣言”的鉴别力。

 

 

来源:新华社信用中国

https://gl.qhcredit.gov.cn/fxts/1011886.jhtml

配图:本站其他文章

© 版权声明

相关文章