OpenAI视频生成模型 机遇与挑战并存
继ChatGPT后,近日,美国OpenAI公司发布了首个视频生成模型“Sora”。您只要输入一段文本指令,就可以生成一段逼真的视频。然而,视频生成模型在推进人工智能技术发展的同时,也引发了人们对人工智能深度伪造视频可能加剧错误信息和虚假信息传播的担忧。
您现在看到的视频,就是视频生成模型“Sora”制作而成。据美国OpenAI官网介绍,此次发布的文字转视频模型可以依据用户输入的指令,生成一段时长可达一分钟的视频。比如根据文本:“一位时尚女性走在东京街头,街道满是霓虹灯和城市标志。她穿着红色长裙、黑色皮夹克和黑色靴子,戴着太阳镜、涂着红色口红。”就可以生成眼前这样的视频。模型也能获取现有的静态图像并从中生成视频,还能获取现有视频,进行扩展或填充缺失内容。
在“Sora”诞生之前,美国人工智能初创公司Runway就曾推出过类似的技术,但是制作的视频时长较短。
美国Runway公司创始人 巴伦苏埃拉:让我们做一个有云的天空,我可以选择电影风格或预览角度。我真的很喜欢这张,它看起来就像光是从云里出来的。人工智能正在扫描图片,并由此生成一段视频。你现在可以看到云正在移动,天空正在变暗,暴风雨就要来了。
当前,包括谷歌和Runway在内的多家公司,都在积极研发此类人工智能项目。但OpenAI强调,“Sora”的突出之处在于其图像的真实感,以及能够生成比其他模型更长的视频片段。不过目前,“Sora”仍然存在缺陷,例如可能混淆一些文本指令中的空间细节,例如左右方向等。
人工智能产品开发者 莫斯塔克:我认为这是自互联网出现以来,我们在技术上取得的最大飞跃之一,它将创造全新的行业,将使媒体更加令人兴奋和有趣。我认为这将不可避免地创造大量新的工作岗位,我认为它将改变一切。
不过人工智能技术带来许多新机遇的同时,也不可避免地造成了前所未有的挑战和隐患。其中,人工智能生成欺骗性内容干扰选举被认为是全球面临的重要挑战。
当地时间1月23日,2024年美国总统选举共和党党内初选在新罕布什尔州举行。在此之前,很多美国选民都表示,自己接到了一通“来自美国总统拜登的电话”。
人工智能生成的虚假电话录音:真是一派胡言,当选票作数的时候,我们就能知道民主投票的价值了。你要把选票留到11月再投。
很快,白宫新闻秘书皮埃尔就澄清说,这是一则伪造的电话录音。
意大利《共和国报》报道说,视频生成模型可以让“名人或政客说从未说过的话、做从未做过的事”,如果有人利用模型克隆拜登、特朗普或其他竞选美国总统或2024年欧洲议会席位的人,可能会加剧错误信息和虚假信息的传播。斯坦福大学研究员巴西勒·西蒙担心,这些工具会在选举中被滥用,并担心公众将“不再知道该相信什么”。
视频生成模型也让靠制作视频谋生的人以及电影从业者感到担忧。Runway公司创始人巴伦苏埃拉直言,未来电影制作的门槛和成本将大大降低。
美国Runway公司创始人 巴伦苏埃拉:用手机就能拍一部被数亿人观看的电影,这将改变电影业的格局。
有网友坦言:“幸好人工智能视频和真实视频目前不算太难区分。”
但也有网友担心道:“真是受够了,我要失去我的工作了。”“捏造的政治宣传将遍布互联网。”
还有网友质疑:“我好奇生成这些视频的学习材料来源,为了生成有效视频,它需要大量不同的视频数据”“人工智能的发展就像无人驾驶的汽车,不知道会走向何方。”
专家解读:生成式人工智能技术进步明显
全球生成式人工智能技术发展迅猛,广泛应用于越来越多的行业中。如何看待人工智能的发展?来听听中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅的解读。
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家 曾毅:人工智能“Sora”在生成数据的真实性、连续性上的进步应该说是非常明显的。最新的进展,将视觉和听觉的数据跨模态的生成,产生的用户体验可以说是更上一层楼的。
现阶段人工智能仍存在违反常识性错误
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家 曾毅:一方面,我们国家的人工智能相关的研究和产业有能力,而且一定要尽快赶上。因为“Sora”相关的生成式人工智能技术,可以降低人工影视娱乐文化产品等相关的开发的成本和门槛。另一方面,也需要指出,这并不意味着生成式人工智能已经真正理解了我们的物理世界,并可以完全替代这些产业当中传统需要人类来完成的工作。比如说现在的“Sora”系统生成的视频,还有很多违反生活和物理常识的错误。
AI快速发展 监管面临挑战
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家 曾毅:未来,应当在积极探索这些技术潜在的应用和对人类工作的互补的同时,充分地关注生成式人工智能给社会带来的潜在的负面影响。比如说“Sora”在连续的高精度的视频生成方面,它所采用的这个技术,使产生的人工智能造假的水平,可以说达到了一个前所未有的高度,给眼见为实带来了更大的挑战。
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家 曾毅:而对于公众而言,区分虚假信息可以说是难上加难,对于视觉取证、执法等等带来的挑战也可以说是非常显著的。一方面,人工智能治理相关政策的发展和落实一定要跟上;但另外一方面,生成式人工智能技术发展,它的研发机构、企业要同步地发展和推广更高水平的自动化鉴伪技术。只有这样,生成式人工智能技术才能被更健康地研发和使用。
版权声明:凡注明“来源:中国西藏网”或“中国西藏网文”的所有作品,版权归高原(北京)文化传播有限公司。任何媒体转载、摘编、引用,须注明来源中国西藏网和署著作者名,否则将追究相关法律责任。