
“朋友视频借钱”的可信度探究
在数字技术日益发达的今天,不法分子利用AI技术行骗已屡见不鲜。专家提醒,我们可以通过观察“眼球运动”、“面部细节”以及要求对方进行大幅动作等方式,如转头、站立等,来根据画面和面部扭曲程度判断视频真伪。
近期,复旦大学华山医院张文宏的名字在互联网上“被带货”,引议。其视频被人用AI技术篡改用于推销“蛋白棒”。面对这样的情况,张文宏教授向媒体明确辟谣。在AI技术如蝗虫般泛滥的当下,虽然平台投诉不断,但专家们仍感到解决此类问题存在困难。
面对AI生成的视频,我们是否束手无策?合合信息图像算法研发总监郭丰俊给予了积极的回应。
细微之处透露假象:AI视频的漏洞识别
对于制作粗糙或技术不够成熟的AI视频,观众们能够从某些细节中发现破绽。例如,非实时AI视频常会展示出动作重复性、眼球运动及面部细节的不自然之处。
具体来说,像“张文宏带货”这样的视频因为生成模型在动作匹配上的局限,会频繁重复一些动作。AI生物的眨眼频率和嘴部动作往往不真实。针对实时AI视频,如使用AI换脸技术制作的“朋友借钱”视频等,可以通过要求对方做出如转头、站起的动作来识别真假。
目前许多AI生成的视频存在缺乏个性化表作、画面抖动等问题,这些都属于技术上的时序瑕疵。通过针对性地优化鉴伪模型,我们可以从技术层面识别这些行为。
技术对抗:注入“数字水印”进行主动防御
随着AI技术的进步,生成的视频越来越难以被及普通鉴伪模型识别。面对这一挑战,郭丰俊表示,许多AI开发者正在寻求用技术对抗技术的策略。
例如,深度检测平台Reality Defender能够帮助企业和检测图像、视频中的深度。除了这种“被动防御”,还需要引入“主动防御”策略。这包括在图像和视频中注入“半脆弱性数字水印”,从源头预防行为。
这种“半脆弱性数字水印”与AI生成图像、视频时产生的普通水印不同。它不会直接呈现在图像或视频上,而是“隐藏”在其中。一旦被篡改或剪辑,这种水印就会被。
