发布时间:2021-07-12
文章来源:中国科学报
近日,中科院自动化研究所(以下简称自动化所)所长徐波在2021世界人工智能大会上就人工智能的最新进展进行报告,并发布了自动化所研发的跨模态通用人工智能(AI)平台——“紫东太初”。据介绍,“紫东太初”以多模态大模型为核心,基于全栈国产化基础软硬件平台,可支撑全场景AI应用。
多模态预训练模型被广泛认为是从限定领域的弱AI迈向通用AI路径的探索。
会上,徐波展示了自动化所打造的虚拟人“小初”,并演示通用多模态大模型的人机对话,展示了不同模态间的互相转换和生成实例,涵盖视频描述、智能问答、图像检索等多个功能。对该成果的演示证明,通过图—文—音三模态的关联与协同,可以有效地提升机器的理解和生成能力。
据介绍,依托面向超大规模的高效分布式训练框架,自动化所构建了具有业界领先性能的中文预训练模型、语音预训练模型、视觉预训练模型,并开拓性地通过跨模态语义关联实现了视觉—文本—语音三模态统一表示,构建了三模态预训练大模型,赋予跨模态通用AI平台多种核心能力。这也使得“紫东太初”兼具跨模态理解和生成能力。与单模态和图文两模态相比,其采用一个大模型就可以灵活支撑图—文—音全场景AI应用,具有在无监督情况下多任务联合学习并快速迁移到不同领域数据的强大能力。
引入语音模态后的多模态预训练模型,可实现共性图文音语义空间表征和利用,并突破性地直接实现三模态的统一表示。研发团队首次使 “以图生音”和“以音生图”成为现实,对更广泛、更多样的下游任务提供模型基础支撑,实现AI在视频配音、语音播报、标题摘要、海报创作等更多元场景的应用。
此外,自动化所研发团队还提出了弱关联三模态数据的语义统一表达,可同时支持三种或任两种模态弱关联数据进行预训练,有效降低了多模态数据收集与清洗成本。
(原载于《中国科学报》 2021-07-12 第4版 综合)
{本网所刊登文章,若无特别版权声明,均来自网络转载;我们尊重原创作者的版权,转载时将标明文章出处,并保留转载文章在原刊载媒体上的署名形式和版权声明(如有),转载文章的观点不代表本网立场,其真实性由作者或稿源方负责;如果您对稿件和图片等有版权及其它争议,请及时与我们联系,我们将核实情况后进行删除。}