OpenAI 的Sora视频生成模型引发的人脸识别安全担忧!

OpenAI 的Sora视频生成模型引发的人脸识别安全担忧!

  • 2024.02.28


2022年OpenAI推出聊天机器人ChatGPT,能够生成具有连贯性和逻辑性的自然语言,模拟与人类对话的过程。2024年2月15日,OpenAI推出视频生成模型Sora,其生成的视频内容效果极其逼真,不仅打破外界对AI能力的认知,同时再次掀起AI讨论热潮。


目前Sore最长可以生成长达一分钟的视频,生成的视频自然流畅,并且Sore所生成的视频视觉细节丰富,物体纹理清晰,色彩逼真,整体可以达到以假乱真的效果。


图片

Sora生成的视频


但随着Sora视频生成模型推进AI技术发展的同时,也引发了人们对AI深度伪造视频可能加剧虚假信息传播的担忧。


一旦如Sora一类的视频生成模型普及,恐怕会导致深度伪造内容更加泛滥,造假成本更为低廉,进而增加被用于诈骗、色情等违法犯罪活动的风险和隐患。如若我们在社交网站上传的照片被犯罪分子利用,我们的人脸特征也将变得不再安全!


运用Sora生成的高清图像  图片来源:OpenAI官网


近几年,国内外出现了不少利用AI深度伪造技术实施的诈骗案例,造成了较大的负面影响。


如近期,香港警方就披露了一起AI“多人换脸”诈骗案,涉案金额高达2亿港元。在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元转账到了5个本地银行账户内,其后,向总部查询才知道受骗。这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。


美国歌手泰勒·斯威夫特(Taylor Swift)就多次被AI深度伪造技术瞄准。2024年1月,Taylor Swift再次成为AI深度伪造技术的受害者,由AI生成的Taylor Swift虚假露骨照片在Twitter上疯传,短时间内浏览量飙升至上千万。白宫新闻发言人卡里娜·让-皮埃尔(Karine Jean-Pierre)对此事件警告AI生成照片的传播“令人担忧”,并敦促社交媒体公司防止此类错误信息的传播。



当然,目前公众人物更容易被AI深度伪造技术瞄准,但如果是普通人被AI制作虚假照片、视频被广泛传播,造成社会性死亡时,又该如何维权?而当犯罪分子用我们的人脸信息利用AI换脸骗过金融机构防火墙时,社会安全风险又该如何保障?


随着Sora等视频模型的开放和应用,AI换脸技术门槛将持续降低,别有用心之人利用深度伪造技术将我们的人脸特征、声音特征轻易盗用,被他人冒充身份,那越来越多的普通人恐将成为潜在受害者!