智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

AI应用信息10个月前发布 XIAOT
87 0

当前学界和工业界都对多模态大模型研究热情高涨。去年,谷歌的 Deepmind 发布了多模态视觉语言模型 Flamingo ,它使用单一视觉语言模型处理多项任务,在多模态大模型领域保持较高热度。Flamingo 具备强大的多模态上下文少样本学习能力。

Flamingo 走的技术路线是将大语言模型与一个预训练视觉编码器结合,并插入可学习的层来捕捉跨模态依赖,其采用图文对、图文交错文档、视频文本对组成的多模态数据训练,在少样本上下文学习方面表现出强大能力。但是,Flamingo 在训练时只使用预测下一个文本单词作为目标,并没有对视觉部分施加专门的监督信号,直接导致了在推理阶段,其只能支持以文本作为输出的多模态任务,大大限制了模型的能力以及应用场景。

Flamingo 目前并没有开源,今年 3 月,非盈利机构 LAION 开源了 Flamingo 模型的复现版本 OpenFlamingo。

近日,智源研究院「悟道・视界」研究团队提出了一种新的多模态大模型训练范式,发布并开源了首个打通从多模态输入到多模态输出的「全能高手」,统一多模态预训练模型 Emu 。

Emu 模型创造性地建立了统一的多模态预训练框架,即将图文对、图文交错文档、视频、视频文本对等海量形式各异的多模态数据统一成图文交错序列的格式,并在统一的学习目标下进行训练,即预测序列中的下一个元素 (所有元素,包含文本 token 和图像 embedding)。此外,Emu 首次提出使用大量采用视频作为图文交错数据源,视频数据相比于 Common Crawl 上的图文交错文档,视觉信号更加稠密,且图像与文本之间的关联也更加紧密,更加适合作为图文交错数据去激发模型的多模态上下文学习能力。

论文结果显示,Emu 超越了此前 DeepMind 的多模态大模型 Flamingo,刷新 8 项性能指标。

除以文本作为输出的任务指标之外,Emu 模型具有更加通用的功能,能够同时完成以图片作为输出的任务,如文生图;且具备很多新型能力,如多模态上下文图像生成。Emu 的能力覆盖图像与文本的生成及视频理解。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

作为一种通用界面,Emu 可用于多种视觉、语言应用

超越 Flamingo、Kosmos,8 项基准测试表现优异

在 8 个涵盖多模态图像 / 视频和语言任务的基准测试中,Emu 均有不俗表现,对比来自 DeepMind 的 Flamingo 与来自微软的 Kosmos 亦有所超越。

Emu 在众多常用测试基准上表现出极强的零样本性能,展现了模型在遇到未知任务时强大的泛化能力。其中,Emu 在图像描述 COCO Caption 的 CIDEr 得分为 112.4,且模型对图片的描述中包含丰富的世界知识。此外,Emu 在图像问答 VQAv2 和视频问答 MSRVTT 数据集上也展现了强劲的视觉问答功能。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

同时,Emu 具备强大的少样本上下文学习能力,即对于给定任务提供几个示例样本,模型可以进行上下文学习从而更好地完成任务。Emu 在视觉问答数据集 VQAv2、VizWiz、MSRVTTQA 上的少样本上下文学习表现突出。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

全能高手:在多模态序列中进行「图文任意模态生成」

Emu 模型能力覆盖图像与文本的生成及视频理解, 相比其他多模态模型更具通用性,能完成任意图生文以及文生图的多模态任务。例如,精准图像认知、少样本图文推理、视频问答、文图生成、上下文图像生成、图像融合、多模态多轮对话等。

Emu 是一个基于 Transformer 的多模态基础模型,可以接受并处理形式各异的多模态数据,输出指定的多模态数据。Emu 将图文对、图文交错文档、视频、视频文本对等形式各异的海量多模态数据统一成图文交错序列的格式,并在统一的学习目标下进行训练,即预测序列中的下一个元素 (所有元素,包含文本 token 和图像 embedding)。训练完成后,Emu 能对任意形式的多模态上下文序列进行多模态补全,对图像、文本和视频等多种模态的数据进行感知、推理和生成

视频理解、多模态上下文生成、多模态对话是 Emu 模型的技术亮点。

Emu 模型具有强大的视频理解能力,如在下图演示中,针对下面 “视频中的女主人公在干什么” 这一问题,Emu 模型给出了具有精准事实细节(苹果 VR 设备)、连贯动作描述(坐在飞机上并使用 VR 设备)、合理行动猜测(可能在看一段视频或 360 度视角的飞机外景象)的丰富回答。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

 

Emu 不只能理解视频信息,还能做到对视频中时序信息的精细理解。例如下图展示的奶昔制作视频,Emu 分步且完整地描述了奶昔制作步骤。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

 

Emu 新增了图像融合能力,可以对输入的图像进行创造性地融合,并生成新的图片。例如下图最后一行,将两幅世界名画作为输入,Emu 可以生成风格、元素类似的全新画作:

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

上下文图像生成也是一项全新的功能,Emu 可以将输入的文本 – 图片对作为 prompt,结合上下文信息进行图片生成。例如在下图第一行,输入两张图片,并输入文本指令让 Emu 生成以图 1 的动物为中心,但以图 2 为风格的图片。依赖于强大的多模态上下文生成能力,Emu 可以完成相应的指令。下图的第二行展示了如果在 “文生图” 时提供了 context,Emu 会结合 context 的风格,生成油画风格的图片,而相同的文本在无 context 的情况下进行 “文生图” 只会生成现实风格的图片:

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

图像生成方面,Emu 可以根据给定的文本生成多幅语义相关的图像:

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

Emu 可根据一张或者多张图或视频进行问答和多轮对话。如下第一张图所示,给出一张景点图并询问旅游注意事项,Emu 给出了 5 个要点,其中再就第 5 个要点 “ safety equipment” 提问时,Emu 能够针对这一点进行更加详细地阐述。最后,Emu 还可以根据图片作诗。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

 

Emu 还有一项突出的能力是它的世界知识更丰富。如下图所示,给出两张动物的图,询问这两张图的区别,Emu 可以准确描述动物的名称及分布地:

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

Emu 模型可以准确识别画作,例如下图输入莫奈的《日出・印象》这幅作品, Emu 不仅准确回答出了作品的名字,描述了画面信息,还给出了很多背景知识,例如这是著名印象派风格的作品。而 mPLUG-Owl 、LLaVA 并不知道画作的名称,只是简单描述了画中场景。InstructBLIP 给出了作品名称和描述,但在背景知识上略逊于 Emu。

智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」
    © 版权声明

    相关文章