Deepfake被世界各地的许多人广泛使用,包括新闻机构,模因制作者等。因此对于加强和构建可检测这些AI驱动的虚假视频的技术同样重要。
微软推出新工具来检测可操纵的视频,该检测工具称为Microsoft Video Authenticator,将逐帧分析视频,从而为您提供置信度分数,以指示是否修改了视频。
该算法是在Microsoft负责任的AI团队以及Microsoft AI,道德和工程与研究效应(AETHER)委员会的帮助下开发的。它旨在识别人眼不容易捕捉到的操纵元素。该团队使用诸如Face Forensic ++之类的公共数据集对AI进行了训练 ,并在DeepFake Detection Challenge数据集上进行了测试。
该公司还发布了由Microsoft的Azure云基础架构提供支持的工具,该工具可让创建者使用证书签署内容。还有一个读取器,可以扫描该证书以验证内容是否真实。但是,我们还不知道Microsoft是否计划公开这两个工具。
Microsoft承认检测工具不是完美的,生成技术可能总是领先于它。结果可能会漏掉一些视频,并且公司将不得不继续努力以使算法更强大。目前,微软的重点是防止深度欺诈。将来可能应该使该技术开源,以便更多的研究人员可以对此做出贡献。