IT之家 2 月 20 日消息,微软昨天向《麻省理工科技评论》杂志分享一份“如何证明网络内容真实性”蓝图,旨在减少“AI 造假”、Deepfake 深度伪造现象。
微软内部的 AI 安全研究团队最近评估了现有数字篡改记录方法,随后提出一套可供 AI 公司、社交媒体平台采用的技术标准。
IT之家了解到,这一鉴别标准由多种溯源手法组合而成。你可以想象自己拥有一幅伦勃朗的真迹,并试图证明它的真伪。
在鉴别过程中,你可能会列一份清单记录这幅画从何而来、转手多少次,添加肉眼不可见但机器可读的隐水印,并对画作进行数字扫描,生成类似指纹的数字签名。当这幅画在博物馆展出时,怀疑者便可以通过这些手段鉴别真伪。
微软参照这些鉴别方式评估了 60 种溯源手法,模拟元数据被删除、内容被修改等现实场景,并分析哪些手法组合使用可以提供稳定结果。
微软首席科学官 Eric Horvitz对此表示,这项研究部分受到加州立法推动。他对此解释道:“你可以把它理解为自我监督。但我们也想借此提升公司形象,让那些注重真相的人增加好感”。
不过,Horvitz 并未承诺微软一定会在自家平台全面采用这些方案。
并且这些工具天生存在局限,它们无法判断内容是否“真实”,只能判断是否“被篡改”。
加州大学伯克利分校数字取证专家 Hany Farid 对此表示,如果科技行业采用微软方案,则可以大大提升有心人士误导公众的难度。
Farid 对此解释道:“不过这并不能 100% 消除谣言,确实有那种无论你怎么说都只相信自己的人。但我相信,绝大多数人仍希望知道真相”。
值得注意的是,科技行业并没有针对越来越普遍的 AI 造假采取强有力行动。去年一项审计发现,IG、领英、Pinterest、TK 和 YouTube 等平台只有 30% 内容被正确标注“AI 生成”标签。
Farid 对此指出:“如果扎克伯格、马斯克认为‘AI 生成’标签会降低平台流量,那他们当然没有动力去做”。
下一篇:没有了