C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  上等兵

注册:2010-7-73
发表于 2024-2-19 10:25:37 |显示全部楼层
就说Sora有多火吧。

生成的视频上线一个、疯传一个。

编辑小哥新上传的效果,点赞很快破万。

902397dda144ad3409b0cdebdce79ef931ad8525.jpeg@f_auto?token=5a17f2e1fb70e99514bff1aff07eca37


失败案例都让人看得上瘾。

将近10万人点赞。

7acb0a46f21fbe09a0982a4867259e3e8644ad7f.jpeg@f_auto?token=c1a59763553634602d43820848e2ff2b


学术圈更炸开锅了,各路大佬纷纷开麦。

纽约大学助理教授谢赛宁(ResNeXt的一作)直言,Sora将改写整个视频生成领域。

d8f9d72a6059252d9598596839de91365ab5b9a5.jpeg@f_auto?token=669175730f9d0cc7cc89ff34f2d6a07d


英伟达高级研究科学家Jim Fan高呼,这就是视频生成的GPT-3时刻啊!

尤其在技术报告发布后,讨论变得更加有趣。因为其中诸多细节不是十分明确,所以大佬们也只能猜测。

包括“Sora是一个数据驱动的物理引擎”、“Sora建立在DiT模型之上、参数可能仅30亿”等等。

所以,Sora为啥能如此惊艳?它对视频生成领域的意义是?这不,很快就有了一些可能的答案。

视频生成的GPT-3时刻

总的来说,Sora是一个在不同时长、分辨率和宽高比的视频及图像上训练而成的扩散模型,同时采用了Transformer架构,也就是一种“扩散型Transformer”。

b03533fa828ba61ec855510a52710507304e592a.png@f_auto?token=2cca9be52ce75886dde7ec26878fd6e9


关于技术细节,官方报告简单提了以下6点:

一是视觉数据的“创新转化”。

与大语言模型中的token不同,Sora采用的是“Patches(补片)”来统一不同的视觉数据表现形式。

如下图所示,在具体操作中,模型先将视频压缩到低维潜空间中,然后将它们表示分解为时空补片,从而将视频转换为补片。(啊这,说了又仿佛什么都没说)

562c11dfa9ec8a1394adf6a2fa460382a1ecc094.png@f_auto?token=9d178385084ed44726c3cbc15e236814


二是训练了一个视频压缩网络

它可以降低视觉数据维度,输入视频,输出时空上压缩的潜表示。

Sora就在这上面完成训练。相应地,OpenAI也训练了一个专门的解码器。

三是时空补片技术(Spacetime latent patches)。

给定一个压缩的输入视频,模型提取一系列时空补片,充当Transformer的token。正是这个基于补片的表示让Sora能够对不同分辨率、持续时间和长宽比的视频和图像进行训练。

在推理时,模型则通过在适当大小的网格中排列随机初始化的补片来控制生成视频的大小。

四是扩展Transformer也适用于视频生成的发现。

OpenAI在这项研究中发现,扩散型Transformer同样能在视频模型领域中完成高效扩展。

下图展示出随着训练资源的增加,样本质量明显提升(固定种子和输入条件)。
b23e790c95a032d165f1655149eafb88.gif


五是视频多样化上的一些揭秘

和其他模型相比,Sora能够hold住各种尺寸的视频,包括不同分辨率、时长、宽高比等等。

42166d224f4a20a4e630f0dc9f170a2f720ed056.jpeg@f_auto?token=57b49b4a7cb059fbdae79a3a7f4c76cd


也在构图和布局上优化了更多,如下图所示,很多业内同类型模型都会盲目裁剪输出视频为正方形,造成主题元素只能部分展示,但Sora可以捕捉完整的场景:

3812b31bb051f8192dcb892fd5f1d8e02f73e7b8.jpeg@f_auto?token=bf77b1a504b8eb4b7264e8f6ebc10bba


报告指出,这都要归功于OpenAI直接在视频数据的原始尺寸上进行了训练。

最后,是语言理解方面上的功夫

在此,OpenAI采用了DALL·E 3中引入的一种重新标注技术,将其应用于视频。

除了使用描述性强的视频说明进行训练,OpenAI也用GPT来将用户简短的提示转换为更长的详细说明,然后发送给Sora。

这一系列使得Sora的文字理解能力也相当给力。

关于技术的先容报告只提了这么多,剩下的大篇幅都是围绕Sora的一系列效果展示,包括文转视频、视频转视频,以及图片生成。

b17eca8065380cd7f0ccc983b9013f3958828164.jpeg@f_auto?token=00297735ef1cf7b5e4f6046af7c2c8f4


可以看到,诸如其中的“patch”到底是怎么设计的等核心问题,文中并没有详细讲解。

有网友吐槽,OpenAI果然还是这么地“Close”(狗头)。

正是如此,各路大佬和网友们的猜测也是五花八门。

谢赛宁分析:

1、Sora应该是建立在DiT这个扩散Transformer之上的。

简而言之,DiT是一个带有Transformer主干的扩散模型,它= [VAE 编码器 + ViT + DDPM + VAE 解码器]。

谢赛宁猜测,在这上面,Sora应该没有整太多花哨的额外东西。

2、关于视频压缩网络,Sora可能采用的就是VAE架构,区别就是经过原始视频数据训练。

而由于VAE是一个ConvNet,所以DiT从技术上来说是一个混合模型。

3b292df5e0fe99251e9b0b2f3aedccd28cb17188.jpeg@f_auto?token=86559c1d6b39d9f14e4a9b2449a61f13


3、Sora可能有大约30亿个参数

2fdda3cc7cd98d10efecd4642c7a2a037bec907a.jpeg@f_auto?token=998f51faf4acc9c2d6ad6a8d75fde153


谢赛宁认为这个推测不算不合理,因Sora可能还真并不需要人们想象中的那么多GPU来训练,如果真是如此,Sora的后期迭代也将会非常快。

英伟达AI科学家Jim Fan则认为:

Sora应该是一个数据驱动的物理引擎。

Sora是对现实或幻想世界的模拟,它通过一些去噪、梯度下降去学习复杂渲染、“直觉”物理、长镜头推理和语义基础等。

比如这个效果中,提示词是两艘海盗船在一杯咖啡里飞行厮杀的逼真特写视频。

Jim Fan分析,Sora首先要提供两个3D资产:不同装饰的海盗船;必须在潜在空间中解决text-to-3D的隐式问题;并且要两艘船避开彼此的路线,兼顾咖啡液体的流体力学、保持真实感、带来仿佛光追般的效果。
53e30137bc14cb616024a5d177b059e6.gif


有一些观点认为,Sora只是在2D层面上控制像素。Jim Fan明确反对这种说法。他觉得这就像说GPT-4不懂编码,只是对字符串进行采样。

不过他也表示,Sora还无法取代游戏引擎开发者,因为它对于物理的理解还远远不够,仍然存在非常严重的“幻觉”。

999814af9ff4b4e99112326035d4365b.gif


所以他提出Sora是视频生成的GPT-3时刻

回到2020年,GPT-3不是一个很完美的模型,但是它有力证明了上下文学习的重要性。所以不要纠结于GPT-3的缺陷,多想想后面的GPT-4。

f11f3a292df5e0febb296b735125a6a55edf7265.jpeg@f_auto?token=f969082e7d92b23c174eb94af522755a


除此之外,还有胆大的网友甚至怀疑Sora用上了虚幻引擎5来创建部分训练数据。

0df3d7ca7bcb0a468b809536662664296a60aff5.jpeg@f_auto?token=816394c09234a54da3b51881c3697e1d


他甚至挨个举例分析了好几个视频中的效果以此佐证猜想:

08c056495fcda4ecd65c27a36deff8c7.png


66c45b57c8152da14f58a2f5dcb973dc.png


不过反驳他的人也不少,理由包括“人走路的镜头明显还是奇怪,不可能是引擎的效果”、“YouTube上有数十亿小时的各种视频,ue5的用处不大吧”……

c8177f3e6709c93d83eb165493786ad1d00054ce.jpeg@f_auto?token=3145bd0f2d4e357a204a66d4f96068f5


如此种种,暂且不论。

最后,有网友表示,尽管不对OpenAI放出更多细节抱有期待,但还是很想知道Sora在视频编码、解码,时间插值的额外模块等方面是不是有创新。

e824b899a9014c08e2fee92d063e900579f4f4c0.jpeg@f_auto?token=ef0e013e426d0c5a5b50564097379375


OpenAI估值达800亿美金

在Sora引发全球关注的同时,OpenAI的估值也再次拉高,成为全球第三高估值的科技初创企业。

随着最新一要约收购完成,OpenAI的估值正式达到800亿美金,仅次于字节跳动和SpaceX。

这笔交易由风投企业Thrive Capital牵头,外部投资者可以从一些员工手中购买股份,去年年初时OpenAI就完成过类似交易,使其当时的估值达到290亿美金。

而在Sora发布后,GPT-4 Turbo也大幅降低速率限制,提高TPM(每分钟最大token数量),较上一次实现2倍提升。

总裁Brockman还亲自带货宣传。

314e251f95cad1c811e0aa85717bf504c83d518f.jpeg@f_auto?token=3c2848c16665c0fb24d97923fbc4815d


但与此同时,OpenAI申请注册“GPT”商标失败了图片

理由是“GPT”太通用。

One More Thing

值得一提的是,有眼尖的网友发现,昨天Stability AI也发布了SVD 1.1。

但似乎在Sora发布不久后火速删博。

377adab44aed2e73425e26caa744338686d6fa70.jpeg@f_auto?token=f25b8778da39665ebbd54e124aa810af


有人锐评,这不是翻版汪峰么?不应该删,应该返蹭个热度。

这还玩个p啊。

9c16fdfaaf51f3deb4b6611f86ab62123a297913.jpeg@f_auto?token=bc009595940a6f5e3aa94f7303e07481


还有人感慨,Sora一来,立马就明白张楠为啥要聚焦剪映了。

64380cd7912397ddaefa111a57c720bad1a287fb.jpeg@f_auto?token=1ee31d4049f20007792c99d0444c0583


以及卖课大军也闻风而动,把商机拿捏死死的图片。

37d3d539b6003af3ddab3c843b6f54511138b690.jpeg@f_auto?token=2b3981133f7894fc12ae86fdab951a1f


原文地址:https://baijiahao.baidu.com/s?id=1791121200355864529

举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-9-20 00:54 , Processed in 0.201414 second(s), 19 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图