【“改头换面”“语音克隆” ,国家安全部:#警惕深度伪造技术带来安全风险#】随着人工智能技术的飞速发展,深度伪造技术逐渐进入我们的生活,在带来惊喜和便利的同时,也暴露出一系列风险隐患,如不注意防范,甚至可能危害国家安全。深度伪造技术(Deepfake)是“深度学习”(Deep Learning)与“伪造”(Fake)的结合,利用人工智能的深度学习算法进行自动化的数据处理,实现图片、音频及视频的智能模拟和伪造,包括视频伪造技术、音频伪造技术、虚假网络身份伪造技术等。它的出现使得篡改或生成高度逼真且难以甄别的音视频内容成为可能,观察者很难辨明真伪。国家安全机关提示,面对深度伪造技术带来的机遇和挑战,要统筹发展和安全,提高安全意识,共同维护国家安全和社会稳定。(国家安全部)
发布于:北京
相关推荐
Veritone语音合成技术: 使名人声音克隆成为可能
国家安全部:智能手机缘何被变成窃听器
DeepFakes=假货制造机?一文告诉你深度伪造技术的发展现状
美国国会听证会探讨“深度伪造”风险及对策
国家安全部:警惕广泛使用的电子信息设备成为“网络间谍”
AI软件克隆你的声音,全球诈骗案件已屡次得逞
图片视频都能造假 AI深度伪造是怎么回事?
为AI生成内容“正名”:从“深度伪造”到“深度合成”
AI换脸骗走跨国公司近2亿,警惕这些新型诈骗
AI深度伪造日渐猖獗 社交媒体成虚假信息传播温床
网址: “改头换面”“语音克隆” ,国家安全部:警惕深度伪造技术带来安全风险 http://m.xishuta.com/newsview129038.html