紫牛热点∣谢浩男被人用AI生成视频带货!网友:已购,上当了

扬子晚报网3月20日讯(记者 郭一鹏) AI生成技术原本是一件好事,然而被别有用心的人利用后,却成了编造虚假信息的工具。

记者了解到,曾被“悬赏千万”寻找的孩子谢浩男回归原生家庭。因为这一热点事件带来了“泼天”流量,眼下却被一些不良商家所利用。在短视频平台,有人利用谢浩男的直播录屏,使用AI制作带货视频。为此,谢浩男在直播间里赶紧辟谣,称这些视频都是假的。“大家不要相信那些带货的,我们也没带货!” 谢浩男在直播间里无奈表示。其父也表示,哪些卖纸巾、卖护肤品、卖牙膏的,现在科技在发展,他们也避免不了“中招”。而从网友反应来看,已有不少人“中招”,有人称买了面膜,有人买了牙膏……得知是AI编造后,网友们纷纷表示,上当了!

其实,此事并非个例,AI深度伪造假冒名人的事件时有发生。有人利用AI技术深度伪造了张文宏医生的脸部和声音进行直播带货,商品中的蛋白棒产品已经售卖了1200多件;还有人用企业家雷军的声音和头像制作了众多恶搞视频;也有人AI制作了刘德华的声音为自己增加流量。

根据此前报道,中国工程院院士、天津中医药大学名誉校长张伯礼也成了受害者之一。当时,网络中出现了这样一个视频,张伯礼院士正在为某美白护肤品进行宣传。实际上,这是一个AI制作的视频,视频中使用张院士的形象和声音,从而达到以假乱真的效果。张院士表示,像这样涉及他形象和声音的假视频在网络上传播的至少还有十几条。“对我的影响还是第二位的,更可怕的是这些东西误导消费者,对老百姓造成的影响。”张院士曾就此表态,专家的形象受到玷污,很气愤又很无奈。

对此,江苏同大律师事务所李小亮律师表示,不良商家的行为侵犯了有关名人或网红的肖像权、声音权等。《中华人民共和国民法典》第一千零一十九条规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。第一千零二十三条第二款规定,对自然人声音的保护,参照适用肖像权保护的有关规定。

同时,如果消费者看这些视频买到假货,可以要求“退一赔三”。《中华人民共和国消费者权益保护法》第五十五条规定,经营者提供商品或者服务有欺诈行为的,应当按照消费者的要求增加赔偿其受到的损失,增加赔偿的金额为消费者购买商品的价款或者接受服务的费用的三倍;增加赔偿的金额不足五百元的,为五百元。

李小亮律师建议,被侵权人可起诉侵权方要求停止侵权、赔偿损失等。上当受骗的消费者保留购买凭证、假货证据等,可以向平台投诉或向市场监管部门举报,必要时通过诉讼主张赔偿等。

据了解,目前模仿他人的声音和脸的技术已经非常成熟,提供一张照片就能做出换脸的效果,他人的声音也能被轻易模仿。而对于个人而言,除了在形形色色的“名人脸”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的AI诈骗,必须保持防范意识。

据介绍,AI骗局有4种常见套路:第一种声音合成,骗子通过骚扰电话录音等来提取声音,获取素材后进行声音合成,用伪造的声音来诈骗;第二种AI换脸,骗子在视频通话中利用AI换脸技术来博取信任,伪装成熟人来骗取重要信息或钱财;第三种转发微信语音,骗子在盗取微信号后,通过提取语音文件或安装非官方版本(插件)实现语音转发,从而把受害者引入骗局;第四种AI程序筛选受害人,利用AI,骗子们还可以分析公众发布在网上的信息,进行筛选,在短时间内生产出定制化的脚本,实施精准诈骗。

那么,该如何防范呢?对于个人而言,要保护信息,提高警惕。不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;多重验证,确认身份。如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款,或涉及网络转账交易行为时,务必通过电话、见面等多途径核验对方身份,不要未经核实随意转账汇款;如不慎被骗或遇可疑情形,请注意保护证据,并立即报警。

校对 潘政返回搜狐,查看更多

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
大家都在看
我来说两句
0人参与, 0条评论
登录并发表