深度丨 OpenAI掀翻视频格局 AGI真的不远了?

2024年02月16日 21:56   21世纪经济报道 21财经APP   孔海丽
技术革命。

21世纪经济报道记者孔海丽 北京报道

视频领域的“GPT时刻”也来了。

北京时间2月16日凌晨,OpenAI推出了新的文生视频模型Sora,可以把简短的文本描述转换为长达60秒的高清视频,继文本、图片的革命之后,继续颠覆视频领域。

文本输入提示:中国龙的中国农历新年庆祝视频。

OpenAI一口气放出的48个示例视频中,既有对现实世界的高度还原,也有动画或科幻大片,角色与场景交互复杂、运动轨迹清晰、情感生动、细节逼真,一镜到底和多机位统统不在话下。

更重要的是,Sora初步实现了对真实世界的洞察与学习,已经能够理解角色在物理世界中的存在方式并预判运行轨迹。

尽管目前Sora仍难以准确模拟复杂场景的物理特性,并且可能无法理解因果关系,比如人物吹蜡烛之后,烛火并未摇曳或熄灭。但这种趋势已经摆上了台面,OpenAI开辟了一个全新的赛道,并让其他仍困在几秒视频时长的AI视频模型创业公司,遭受降维式辗轧。一位AI大模型从业者感慨:“要卷死一堆文生视频公司了,秒杀……”

一个能够理解、感知、创造内容的AI视频模型,将撕开无限可能。OpenAI扔下的这枚重磅炸弹,商业落地场景非常丰富,战栗的将不只是影视行业,整个内容创作行业或都将被动摇。

在实际应用层,Sora可能会为短视频创作、游戏呈现效果、机器人具身智能、自动驾驶等,带来巨大的影响与突破。假以时日,真实世界与视频虚拟世界的区隔,或许也将被削弱,大洋彼岸已经在担心AI视频会影响总统大选了,正在采取行动应对AI生成的深度伪造。

对于Sora模型的意义,OpenAI官方如此表述:“能够理解和模拟现实世界的模型的基础,我们相信这一能力将是实现AGI的重要里程碑”。

上难度:理解真实世界

与现有文生视频技术相比,OpenAI的Sora几乎将AI视频的竞争,从冷兵器时代推进到了现代化战争阶段,时长、效果、互动性,都秒杀现有技术。

视频生成领域面对的一个重要挑战就是,在生成的较长视频中保持时空连贯性和一致性。市面上现有的AI视频产品,时长一旦超出几秒,将无法正确呈现物体之间的互动关系,逐渐“离谱”。

因为AI对视频的学习,依赖大量的训练数据,如果训练数据中没有涵盖某种特定的过渡效果或动作,AI就很难学会如何在生成视频时应用这些效果。也就是说,时长一旦变长,现有AI的能力就会“露馅”。

更根本的原因在于,现有AI无法理解物理世界的运行法则,也就无法预测物体和角色在时间线上的运动轨迹。

但OpenAI做到了。Sora直接将时长提升到了60秒,且效果高清,细节丰富。

OpenAI官网呈现的一则60秒视频显示,女主与周围的街道、人群、灯光、都非常清晰自然,完全没有AI视频常见的“掉帧”问题,甚至肢体动作、面部表情、水中倒影、墨镜折射画面都很连贯。

文本输入提示:一位时尚的女人走在东京的街道上,街道上到处都是温暖的发光霓虹灯和动画城市标志。她身穿黑色皮夹克,红色长裙,黑色靴子,背着一个黑色钱包。她戴着墨镜,涂着红色口红。她走得自信而随意。街道潮湿而反光,营造出五颜六色的灯光的镜面效果。许多行人四处走动。

另一则视频中,穿过东京郊区的火车车窗倒影,不仅显示了车窗外掠过的建筑,近距离经过的另一节车厢甚至加深了车内灯光、人物的折射清晰度,非常符合常理,并且流畅自然。

文本输入提示:提示:穿过东京郊区的火车车窗中的倒影。

Sora经常能够为短期和长期物体间的依赖关系建模。例如,在生成的视频中,人物、动物和物体即使在被遮挡或离开画面后,仍能被准确地保存和呈现。并且,Sora能够在单个样本中生成同一角色的多个镜头,并在整个视频中保持其外观的一致性。

一则太空人科幻视频中,同时呈现了近景、远景中的主角,被太空船内部场景切分开的人物镜头,分别处于凝视、行走、思考等不同的状态,人物一致、行为连贯。

文本输入提示:电影预告片,讲述了 30 岁的太空人戴着红色羊毛针织摩托车头盔的冒险经历,蓝天,盐沙漠,电影风格,用 35 毫米胶片拍摄,色彩鲜艳。

据OpenAI官网介绍,Sora是一种扩散模型,相较其他模型,看起来具备了“理解”和“思考”能力。

与AI视频明星创业公司Runway所使用的Gen模型相比,Sora模型不仅了解用户在提示中要求的内容,还了解这些角色在物理世界中的存在方式,能够理解和模拟运动中的物理世界,能够生成具有多个角色、特定类型的运动,以及主题和背景的准确细节的复杂场景。

与GPT模型类似,Sora使用的是transformer架构,该架构对视频的时空序列包和图像潜在编码进行操作,能够主动填补视频中的“缺失帧”,从而看起来具备“预测性”,使得AI视频模型不再那么“被动”。

一位AI大模型从业人士对21世纪经济报道记者表示,OpenAI又一次改写了游戏规则,把文生视频推高到了“理解真实世界”的维度。

这也正是世界模型的特点——让机器能够像人类一样对真实世界有一个全面而准确的认知。世界模型不仅包括对事物的描述和分类,还包括对事物的关系、规律、原因和结果的理解和预测,从而进行推理和决策。

英伟达人工智能研究院Jim Fan表示:“如果你还是把Sora当做DALLE那样的生成式玩具,还是好好想想吧,这是一个数据驱动的物理引擎。”有技术人员告诉21世纪经济报道记者,Jim Fan的言外之意在于,不能忽略Sora所折射的“世界模型”的更进一步——AI已经可以读懂物理规律。

随着训练的继续推进,AGI的实现或许不再是纸上谈兵。

打击力:颠覆现实世界

OpenAI推出Sora之后,互联网世界除了感叹,还有一片哀嚎。

在OpenAI的推文下面,不少评论打出“gg 皮克斯”、“gg好莱坞”(注:gg是竞技游戏礼貌用语,good game的缩写,用于表达“打得好,我认输”),马斯克更是在X上发表评论,称“gg 人类”。

有不少网友感慨自己“要失业了”,视频行业将被彻底颠覆。

有来自电影制作行业的从业人士告诉21世纪经济报道记者,如果Sora继续进化下去,取代一部分传统视频制作方式是必然的,就像AI绘画取代画师、设计师一样,这是趋势。

“短视频、概念视频、广告、微短剧、甚至是长视频里,都会大量使用AI生成视频。”该人士表示:“不过传统影视剧该怎么拍还得拍。”

观点普遍认为,AI视频模型将改变电影工业的生产方式,虽然不能完全取代现有人力,但将会成为新的生产工具,影视行业从业人士需要尽快把工具“为我所用”。

一位影视编剧提出了另一种想法,她认为,Sora这类AI视频模型大大降低了精美视频的制作门槛,以后编剧的奇思妙想将有更大的呈现空间,“技术不到位”、“经费不够”的掣肘都将减小很多。

比如,OpenAI的一则视频中,巨大的猛犸象缓缓走来,形象逼真,身后腾起了雪雾,远处被白雪覆盖的树林与山脉清晰可见。而众所周知,动画《冰川时代》的实际制作费用达到8000万美元之高,耗时4年之久。

文本输入提示:几只巨大的毛茸茸的猛犸象踩着白雪皑皑的草地走近,它们长长的毛茸茸的毛毛在风中轻轻吹拂,远处白雪皑皑的树木和壮观的白雪皑皑的山脉,午后的光线与薄薄的云层和远处高高的太阳营造出温暖的光芒,低相机视角令人惊叹,用美丽的摄影捕捉了大型毛茸茸的哺乳动物,景深。

“那些有才华但苦于缺少投资的导演们,可能会借力Sora创造出许多惊人的作品。”她补充说。

目前,Sora尚未对公众开放,OpenAI正在与一些视觉艺术家、设计师和电影制作人合作,以探索如何让Sora对创意专业人士提供有效帮助。

而双刃剑的另一面,是AI视频模型给现实世界带来的虚假信息威胁也将大大增加。

近期,AI合成的泰勒·斯威夫特不雅照曾引起过轩然大波,就连白宫方面也呼吁国会“应立刻采取行动”,而美国政坛和民众也对背后凸显的技术、法律漏洞感到担忧。

AI生成“恶性视频”对现实世界造成的困扰,将数倍于图片效果。为此,美国联邦贸易委员会将致力于利用工具来检测、阻止相关冒充欺诈行为。

为此,OpenAI表示,将在提供Sora之前采取几个重要的安全措施,与错误信息、仇恨内容和偏见等领域的专家进行合作,对模型进行对抗性测试;OpenAI也在构建工具来检测误导性内容,例如检测分类器,可以判断视频何时由Sora生成。

除了开发新技术为Sora保障安全性,现有的安全方法也适用于Sora模型,例如那些请求极端暴力、色情内容、仇恨图像、名人肖像或他人IP的提示将被模型拒绝,也开发了强大的图像分类器,用于查看生成的每个视频的帧数,以确保在向用户显示视频之前遵守OpenAI的使用政策。

但OpenAI也承认,无法预测人们使用Sora的所有有益方式,也无法预测人们滥用它的所有方式。

不过,目前Sora还有其局限性,比如可能难以准确模拟复杂场景的物理特性,并且可能无法理解因果关系的具体实例。例如,一个人咬一口饼干之后,饼干可能没有咬痕。该模型还可能混淆提示的空间细节,例如,左右混淆,人类在朝着跑步机的尾部跑步。也可能难以精确描述随时间推移发生的事件,例如,五只灰狼幼崽嬉戏的画面中,幼崽数量可能忽多忽少,有的幼崽会凭空出现或消失。

文本输入提示:五只灰狼幼崽在一条偏远的碎石路上嬉戏和追逐,周围环绕着草地。幼崽们奔跑跳跃,互相追逐,互相啃咬,玩耍。

随着技术进步,或许未来,如何判定视频真假,也将成为一门学问。

压迫感:巨头步步碾压

另一厢,谷歌也于同一日发布了Gemini 1.5版本,在文本的长度上实现了大幅突破。但终究被OpenAI的视频模型抢尽了风头。

一批AI视频模型创业公司也将命悬一线。

文生视频的生成模型最早出现在2022年底,Pika lab、Runway都分别贡献过AI生成视频的话题。早期,就连Meta和谷歌的AI视频都有着“一眼AI”的问题,清晰度、逻辑性有明显缺陷。

经过不懈努力,Runway在2023年11月发布了AI视频生成工具Gen-2,修复了视频画质,也克服了不连贯、闪烁变形以及低清等问题,但生成的视频时长最多只能达到18秒。

眼下,OpenAI一举把AI视频生成时长拉到了60秒,并且运镜复杂、场景多变、人物还能够表达丰富的情感色彩,简直断了其他小公司未来的路。

业内分析人士表示,如果其他AI视频模型创业公司无法尽快追赶OpenAI,恐怕将直接失去生存空间。

但这种追赶并不容易。前述AI大模型从业者向21世纪经济报道记者表示,仅就公开信息而言,其他公司与OpenAI在技术能力、训练量、耗资程度方面,都有着代际差异。

“如果长期关注AI文生视频的进展,就会知道OpenAI的Sora有多强大,是专业拳手暴打小白的差距。”、“AI真的分成两种,OpenAI和其他AI”……相关评论也是层出不穷。

一位关注AI大模型的投资人向21世纪经济报道记者透露,小型公司跑出来的概率变得更渺茫了,尤其是这么烧钱的领域,很难在巨头的阴影下做出亮点。

从文本大模型、图像大模型,再到如今的视频大模型,OpenAI深刻诠释了“一步先、步步先”的残酷性。

实际上,Sora之所以能这么出色,也与OpenAI之前的领先优势有关。

OpenAI放出的技术报告透露,Sora模型对语言有深刻的理解,使其能够准确地解释提示并生成表达生动情感的引人注目的角色。这背后有GPT的功劳,OpenAI会先利用GPT将简短的用户提示转换为更长的详细内容,再发送到视频模型。

他们还为视频生成调用了DALL·E3(OpenAI的图像生成模型)中的re-captioning技术,为视觉训练数据生成高度描述性的文本,使得模型能够更忠实地遵循用户指令。

除了能够以文本生成视频,Sora模型还能够获取现有的静止图像并从中生成视频,提高视频的准确性及细节颗粒度,还可以对现有视频进行扩展或填充“缺失帧”。

也就是说,Sora是站在OpenAI的大语言模型GPT以及图片大模型DALL·E的肩膀上,并且跑出了加速度。

 一位硅谷AI行业创业人士感慨说:“创业之路,离天堂太远,离巨头太近,如果又没有自己的壁垒,实在太容易被淘汰了。”

而其他落后于OpenAI的科技巨头,在AI大模型这条路上,也要时时接受来自先行者的压迫感。

关注我们