9月26日,韩国国会通过了一项法案,将拥有或观看AI换脸的色情图片和视频的行为定为犯罪,刑罚包括罚款和监禁。
根据该法案,任何购买、保存或观看此类材料的人都可能面临长达三年的监禁,或高达3000万韩元(160,500人民币)的罚款。但该法案现在需要得到总统尹锡悦的批准才能颁布。
目前,根据韩国《性暴力预防和受害者保护法》,使用Deepfake技术(AI深度伪造技术)并意图传播者,将被处以五年监禁或 5000 万韩元(267,500人民币)的罚款。新法生效后,无论使用者意图如何,此类犯罪的最高刑期将增至7年。
韩国首尔,戴着眼罩的活动人士在抗议AI换脸色情犯罪的活动中手持海报,上面写着 “屡屡发生色情犯罪,国家也是帮凶”。
早在2024年5月,Deepfake(AI深度伪造技术)事件就遭到曝光。据韩媒报道,首尔大学毕业生朴某和姜某,从2021年7月至2024年4月,涉嫌利用Deepfake技术AI换脸合成色情照片和视频,并在韩国通讯软件“电报”(Telegram)上私密传播。Deepfake是使用人工智能生成的技术,将个人的声音、面部表情及身体动作拼接合成虚假内容。这件事中,受害女性多达61人,包括12名首尔大学学生,被称为“首尔大学版N号房事件”。
2024年8月,有多名韩国女性通过社交媒体发声,称她们在一些社交媒体上,特别是“电报”群组中,发现又一个“N号房”案件,韩国男性疑似大量分享传播周围女性的淫秽影像,受害对象涉及未成年女孩。群组中传播的淫秽影像经AI换脸而制成。在付费的Deepfake电报频道中,男性订阅用户提供女性照片,交钱后由频道通过Deepfake技术制成色情材料。
韩国女性抗议游行
据韩媒报道,今年以来,韩国警方已经处理了800多起Deepfake色情犯罪案件。相比之下,2021 年全年的数据为156起。韩国警方称,大多数受害者和犯罪者都是青少年。
2024年8月27日,韩国总统尹锡悦发表讲话时呼吁警方展开彻底调查,以根除此类AI色情犯罪。
同时,美国国会也在讨论相同内容的几项立法,其中一项是允许未经同意的Deepfake色情材料受害者提起诉讼,另一项则将发布此类图像定为刑事犯罪,并要求科技公司删除这些图像。
(编辑:Yvonne)