亲耳听到的就一定是真的吗?未必。媒体调查发现,随着人工智能技术和语音大模型应用的发展,大量 AI 合成声音 App 涌现,最快只需十几秒便可 “克隆” 出一种声音。与此同时,AI 声音滥用现象愈发突出,不时引发争议。
一些短视频博主利用 AI 模仿知名企业家的声音,吐槽堵车、调休、游戏等热门话题,甚至飙脏话,这引起了极大关注;一些商家在带货时,通过 AI 模仿知名明星、知名医生的声音,给消费者带来了极大困扰…… 随着 AI 技术的不断发展与进步,AI “克隆声音” 的能力与水平也在持续提升,短则十几秒,长则几分钟,一个逼真的 “原声” 就能公然出现在大众视野之中。
为何会出现这种情况?原因是利益作祟。专业人士透露,通过 “克隆” 名人声音制作的恶搞、猎奇视频等,在相关平台上能获得较高的播放量和点赞量,这可以带来实实在在的粉丝增长、广告收益等。此外,若是通过 “克隆” 声音带货,同样能吸引关注,产生直接的经济效益。在 “技术搭台,经济唱戏” 模式下的 AI “克隆声音”,蕴藏着巨大的社会风险,不仅侵害个人信息安全,还破坏网络空间与市场秩序,这必须引起高度警惕。
用 AI “克隆” 声音是否违法违规?这值得关注。从常理来讲,个人声音中包含的声纹信息具备极强的可识别性,能够关联到唯一的自然人,是重要的生物识别信息。从法律层面来看,个人声音属于我国个人信息保护法规定的敏感个人信息之一,不能被随意 “克隆”。这方面,也有现实的判例。2024 年 4 月,北京互联网法院宣判全国首例 “AI 声音侵权案”,法官认为,未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成侵权。
常理和法理都十分明确,但侵权行为依然时有发生,这需要我们进行更深入的反思并采取行动。对政府部门而言,要进一步完善法律法规,对于人工智能应用引发的造谣侵权、刑事犯罪、道德伦理等问题,要通过发布典型案例、出台司法解释等方式,给予更为明确的规范指引。对技术开发者和相关平台来说,应进一步增强社会责任感,加强技术研发过程中的伦理审查,确保技术的正向应用,比如开发声音识别验证技术,以技术手段辅助鉴别声音的真伪等。对全社会而言,要加强科普教育,让每个人都自觉成为网络空间健康生态的积极维护者。
AI 技术日新月异,我们既要拥抱技术进步带来的便利,也要警惕技术异化带来的冲击。声音权益保护不仅关乎个人利益,也关乎健康网络秩序的营造。只有多措并举,通过科学合理的监管和引导,才能让 AI 技术的进步成为推动社会进步的正能量,真正服务于人类福祉。
作者:龙敏飞
投稿邮箱:qilupinglun@sina.com