首页 > 科技 > 智能 AI 变鉴片大师,星际穿越都能看懂!贾佳亚团队新作,多模态大模型挑战超长 3 小时视频

AI 变鉴片大师,星际穿越都能看懂!贾佳亚团队新作,多模态大模型挑战超长 3 小时视频

啥?AI 都能自己看电影大片了?贾佳亚团队最新研究成果,让大模型直接学会了处理超长视频。丢给它一部科幻大片《星际穿越》(片长 2 小时 49 分钟):它“看”完之后,不仅能结合电影情节和人物轻松对电影进行点评:还能很精准地回答出剧中所涉的细节:例如:虫洞的作用和创造者是谁?答:未来的智慧生物放置在土星附近,用于帮助人类进行远距离星际穿越。男主库珀是如何将黑洞中的信息传递给女儿墨菲?答:通过手表以摩…

啥?AI 都能自己看电影大片了?

贾佳亚团队最新研究成果,让大模型直接学会了处理超长视频。

丢给它一部科幻大片《星际穿越》(片长 2 小时 49 分钟):

它“看”完之后,不仅能结合电影情节和人物轻松对电影进行点评:

还能很精准地回答出剧中所涉的细节:

例如:虫洞的作用和创造者是谁?

答:未来的智慧生物放置在土星附近,用于帮助人类进行远距离星际穿越。

男主库珀是如何将黑洞中的信息传递给女儿墨菲?

答:通过手表以摩斯密码的方式传递数据。

啊这,感觉电影博主的饭碗也要被 AI 抢走了。

这就是最新多模态大模型 LLaMA-VID,它支持单图、短视频和长视频三种输入。

对比来看,包括 GPT-4V 等在内的同类模型基本只能处理图像。

而背后原理更有看头。

据介绍,LLaMA-VID 只通过一个非常简单的办法就达成了如上能力,那就是:

把表示每一帧图像的 token 数量,压缩到仅有 2 个。

具体效果如何以及如何实现?一起来看。

人物理解分析、电影细节都 OK

对于电影来说,除了精准回答所涉细节,LLaMA-VID 也能对角色进行十分准确的理解和分析。

还是《星际穿越》,我们让它看完后分析米勒星球上相对地球时间的快慢及原因。

结果完全正确:

LLaMA-VID 表示是因为米勒星球在黑洞附近,导致 1 小时相当于地球 7 年。

再丢给它时长近俩小时的《阿甘正传》。

对于“珍妮对于阿甘有何意义?”这一问题,LLaMA-VID 的回答是:

孩童时期的朋友,后来成为阿甘的妻子,是阿甘生活和心灵的慰藉。

对于阿甘在战争及退伍后的事件也能进行分析,且回答也很到位:

丹中尉责怪阿甘救了自己,因为这让他无法战死沙场。

除了看电影,成为一个无所不知的的“电影搭子”,它也能很好地理解宣传片的意图,回答一些开放问题。

比如给它一段最近很火的 GTA6 预告片。

问它“这个游戏哪里最吸引你?”,它“看”完后给出的想法是:

一是游戏场景和设置非常多(从赛车、特技驾驶到射击等),二是视觉效果比较惊艳。

哦对了,LLaMA-VID 还能根据游戏中的场景和特征,推测出预告片是 Rockstar 游戏公司的推广:

以及认出游戏的背景城市为迈阿密(根据夜生活、海滩等信息,以及在作者提示游戏设置在佛罗里达之后)。

最后,在宣传片、时长高达 2-3 小时的电影这些视频材料之外,我们也来看看 LLaMA-VID 对最基础的图片信息的理解能力。

呐,准确识别出这是一块布料,上面有个洞:

让它扮演“福尔摩斯”也不在话下。面对这样一张房间内景照片:

它可以从门上挂了很多外套分析出房间主人可能生活繁忙 / 经常外出。

看得出来,LLaMA-VID 对视频的准确解读正是建立在这样的图片水准之上的,但最关键的点还是它如何完成如此长时间的视频处理。

几行代码实现单帧 2 token 表示

LLaMA-VID 的关键创新是将每帧画面的 token 数量压缩到很低,从而实现可处理超长视频。

很多传统多模态大模型对于单张图片编码的 token 数量过多,导致了视频时间加长后,所需 token 数量暴增,模型难以承受。

为此研究团队重新设计了图像的编码方式,采用上下文编码(Context Token)和图像内容编码(Content Token)来对视频中的单帧进行编码。

从而实现了将每一帧用 2 个 token 表示。

具体来看 LLaMA-VID 的框架。

只包含 3 个部分:

采用编解码器产生视觉嵌入和文本引导特征。

根据特定 token 生成策略转换上下文 token 和图像内容 token。

指令调优进一步优化。

根据指令,LLaMA-VID 选取单个图像或视频帧作为输入,然后从大语言模型上生成回答。

这个过程从一个可视编码器开始,该编码器将输入帧转换为可视帧嵌入。

然后文本解码器根据用户输入和图像编码器提取的特征,来生成与输入指令相关的跨模态索引(Text Query)。

然后利用注意力机制(Context Attention),将视觉嵌入中和文本相关的视觉线索聚合起来,也就是特征采样和组合,从而生成高质量的指令相关特征。

为了提高效率,模型将可视化嵌入样本压缩到不同 token 大小,甚至是一个 token。

其中,上下文 token 根据用户输入的问题生成,尽可能保留和用户问题相关的视觉特征。

图像内容 token 则直接根据用户指令对图像特征进行池化采样,更关注图像本身的内容信息,对上下文 token 未关注到的部分进行补充。

文本引导上下文 token 和图像 token 来一起表示每一帧。

最后,大语言模型将用户指令和所有视觉 token 作为输入,生成回答。

而且这种 token 的生成方法很简单,仅需几行代码。

实验结果方面,LLaMA-VID 在多个视频问答和推理榜单上实现 SOTA。

仅需加入 1 个上下文 token 拓展,LLaMA-VID 在多个图片问答指标上也能获得显著提升。

在 16 个视频、图片理解及推理数据集上,LLaMA-VID 实现了很好效果。

在 GitHub 上,团队提供了不同阶段的所有微调模型,以及第一阶段的预训练权重。

具体训练包括 3 个过程:特征对齐、指令微调、长视频微调(相应步骤可参考 GitHub)。

此外,LLaMA-VID 还收集了 400 部电影并生成 9K 条长视频问答语料,包含电影影评、人物成长及情节推理等。

结合之前贾佳亚团队所发布的长文本数据集 LongAlpaca-12k(9k 条长文本问答语料对、3k 短文本问答语料对), 可轻松将现有多模态模型拓展来支持长视频输入。

值得一提的是,今年 8 月开始贾佳亚团队就发布了主攻推理分割的 LISA 多模态大模型。

10 月还发布了长文本开源大语言模型 LongAlpaca(70 亿参数)和超长文本扩展方法 LongLoRA。

LongLoRA 只需两行代码便可将 7B 模型的文本长度拓展到 100k tokens,70B 模型的文本长度拓展到 32k tokens。

最后,团队也提供了 demo 地址,可自己上传视频和 LLaMA-VID 对话(部署在单块 3090,需要的小伙伴可以参考 code 用更大的显存部署,直接和整个电影对话)。

看来,以后看不懂诺兰电影,可以请教 AI 试试

~

论文地址:

https://arxiv.org/abs/2311.17043

GitHub 地址:

https://github.com/dvlab-research/LLaMA-VID

demo 地址:

http://103.170.5.190:7864/

本文来自微信公众号:量子位 (ID:QbitAI),作者:丰色 明敏

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

投诉水文 我要纠错
本文来自网络,不代表头条在线-头条新闻网立场。
上一篇除了《AI 法案》,欧盟还将对 GPT-4 等更高能力模型增加额外规则约束
下一篇 返回列表
头条新闻网

来源:

本文来源于。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部