明星频遭AI换脸换声诈骗,如何防范成为新课题

发布时间:2025-05-05 23:00

近日,老牌港星黄百鸣亲自打假,公开发声明称,有人盗用他过去的影片,并通过AI技术替换了电影原声,呈现为他“代言”了某一药膏品牌。而刚刚过去的国庆,也有人上传了大量小米CEO雷军的AI音频而成为舆论热点。近年来,从AI换脸到AI换声,各类网络“高仿”屡禁不止,亲眼所见、亲耳所听也未必属实,对大家的警示从“擦亮眼睛”到“竖起双耳”,这就够了吗?

明星频繁被打假,背后是怎样的利益链条?

黄百鸣的公开声明中明确表示,他未授权过任何人及公司使用其影片或名义来推广任何药膏品牌,该行为不仅侵犯了他的肖像权,也对其名誉造成损害。这种行为纯属欺诈,旨在误导公众并从中取利。近期被AI换声而引发全网热议的还有雷军。国庆期间短视频平台上出现了大量“雷军AI配音”的恶搞视频,一度甚至成为创作热潮。在视频中,“雷军”锐评了堵车、假期等热门话题,其中还有一些不雅谩骂。有网友调侃称“国庆上网被雷军骂了整整7天”。

AI高仿为何屡禁不止?

千方百计蹭高仿,无非利益诱人心。有的是为了违规引流,有的则是为了直接诈骗。在黄百鸣的公开声明下,不少受害者表示以为是真的,已经购买了;刘德华方面今年也连续发布声明称,有人通过AI伪造刘德华的声音,并发布剪辑拼凑视频,从中获利;陈佩斯方面9月也在公开声明里指出,高仿者高额牟利,等等。“高仿”名人一般直接以诈骗为目的,利用公众对偶像名人的情感,骗取网民捐赠、用户打赏、重金购物,手段多样,让不少人防不胜防坠入“陷阱”。

法律与技术的双重应对

目前来看,被AI高仿的明星名人们一边诉诸法律,一边公开发声自己“被高仿”,希望多一个了解真相的网友,就少一些受骗的人。伴随着AI深度合成技术的成熟,门槛不断降低,AI深度合成产品和服务井喷式涌现,“AI换脸拟声”的逼真程度也到了让人难以辨别的程度。利用AI实施诈骗、侵权等违法犯罪的数量在快速增加。除了明星和公众人物,也有不少涉及普通人的AI犯罪曾引发关注。这不仅侵害了相关主体合法权益,也破坏了健康的网络生态,干扰社会正常秩序,成为公共治理难题。

建立有效的法律框架

毫无疑问,人工智能领域应建立有效的法律框架。相关监管已经在路上了,9月国家网信办起草的《人工智能生成合成内容标识办法(征求意见稿)》对AI“专属水印”的要求更加细致,不仅规定文本、音频、图片、视频、虚拟场景中,提示用户的显式标识应出现的位置,还指出生成AI合成内容的文件元数据,应添加隐式标识,以记录文件的来源、属性、用途、版权等关键信息。这意味着今后AI生成内容一旦造假,溯源将更加清晰。

多管齐下的解决方案

可以肯定的是,让AI生成合成的内容无所遁形,对AI滥用的预防具有一定效果。不过,除了技术层面,仍需要更加细致完善的法律规范,应从主体资质、业务规则、法律后果等多个层面做出规制,多管齐下,才能更全面地规避人工智能技术带来的风险隐患,使之健康有序发展。

思考与启示

面对AI技术的快速发展,我们既要看到它带来的便利和创新,也要警惕其潜在的风险。作为普通用户,我们需要提高辨别能力,避免轻信未经核实的信息。同时,相关部门也应加强监管,确保技术的健康发展。此外,借助AI工具如简单AI,可以帮助自媒体创业者更好地进行内容创作,提升效率,但同时也需注意遵守法律法规,维护良好的网络环境。

总之,AI技术的发展带来了诸多机遇,但也伴随着新的挑战。只有全社会共同努力,才能在享受技术红利的同时,有效防范和化解潜在风险。返回搜狐,查看更多

网址:明星频遭AI换脸换声诈骗,如何防范成为新课题 http://www.mxgxt.com/news/view/1000645

相关内容

【知识科普】“AI换脸”诈骗,怎么防?
眼见不一定为实,警惕新型“AI换脸”诈骗!
以假乱真的AI诈骗,如何防范?
风险提示|先声音再视频 所谓“熟人”来敲门?——“AI换脸”诈骗乱象风险预警
直播间里好多“明星脸”?AI换脸诈骗引热议
主播用“明星脸”带货,“AI换脸”乱象如何破?
如何观看女明星AI换脸,如何观看女明星ai换脸视频
新华视点|“AI诈骗潮”真的要来了?
拆解AI造假四大套路:仿冒名人炮制新闻,换脸敲诈一键去衣
AI换脸产业链调查 女明星换脸淫秽视频成地下生意

随便看看