中文DL模型“武豪”参数为1.75T

2021-06-03 23:19:59

在竞争中,建立能够为下一波AI革命的潜在技术来说,一个中国实验室刚刚推翻了Openai,谁可以培训了培训巨大的深入学习模型的培训参数 - - 对于是否有比赛,至少对实验室的成员相信。

北京人工智能学院称为Baai和中国人称为北京智源人工,推出了最新版的Wudao悟道,这是一个预先训练的深度学习模式,该实验室称为“中国的第一,”和“世界上最大的最大值,“具有往往的1.75万亿参数。

(讲述一个完整的故事,但只是为了它:武岛比谷歌'开关变压器的参数超过150亿个参数,并且是Openai' gpt-3的10倍,广泛认为是语言生成方面的最佳模型。)

与通常特定于任务特定的传统深度学习模型不同,Wudao是一个训练的多模态模型,用于解决文本和图像,两个显着不同的问题。在星期二的白达年度学术会议上,该机构展示了武士执行任务,如自然语言处理,文本生成,图像识别,图像生成等。

该模型能够在传统的中国风格中写入诗歌和对联,回答问题,写论文,为图像的Alt文本生成,并从自然语言描述中生成相应的图像,具有体面的质量学。甚至能够为“虚拟偶像”提供“虚拟偶像”,其中一家中国公司旋转微软 - 因此,除了文本和图像之外,还可以出现语音支持。

多模式模型目前是深度学习社区内的流行语,研究人员越来越多地希望将边界推向众所周知的人为一般情报,或简单地放置,这是一个不仅仅是令人难以置信的聪明的智能伎俩。谷歌的妈妈或多任务统一模型在两周前揭幕于硅谷巨头的年度开发人员会议,能够回答复杂的问题和从文本和图像蒸馏信息,是多模态模型的最初示例。

非常有趣的是,这种具有1.75万亿参数的模型已经是Wudao的2.0版本,其第一个版本刚刚在不到3个月前推出。中国研究人员迅速取得进步之一是他们能够利用其他核心成员在国家超级计算项目中致力于中国的超级核心群体。

一点技术解释:Baai研究人员开发和开放了一个叫做Fastmoe的深度学习系统,它允许武装在两种超级计算机和常规GPU上培训,具有明显更多的参数,提供模型,理论上的更具灵活性,比谷歌更具灵活性男鞋或专家的混合物。这是因为谷歌的系统需要公司的专用TPU硬件和分布式训练框架,而Baai的FastMoe使用至少一个行业标准的开源框架,即Pytorch,可以在现成的硬件上运行。

中国实验室声称,武士和#39; S子模型比以前的型号实现了更好的性能,击败了Openai的剪辑和谷歌在Microsoft Coco DataSet中的英语图像和文本索引上的对齐。

对于文本的图像生成,一项小说任务,Baai声称,Wudao的子模型Cogview击败Openai' S Dall-e,今年1月推出的最先进的神经网络,具有120亿参数。该机构正在与Damo Academy,Alibaba' S AI Research Lab合作,利用CogView开发可用于生产自定义设计服装的应用程序,从而从套装购物者&#39生产定制服装;需要。

“人为综合情报的方式是大型型号和大型电脑,”张洪江议员张洪江博士说:“我们正在建造的是一个用于未来AI的电厂,拥有Mega数据,巨型计算能力和巨型模型,我们可以将数据转换为燃料的未来应用。“

张博士领导了最终导致贝亚的成立的项目。他目前是源代码资本的风险合作伙伴,并是金公司首席执行官,以及微软研究亚洲的十几个联合创始人之一。

毫无疑问,Baai在2018年成立,将自己作为“中国的Oppai”,因为该机构的排名成员在年度会议上没有至少提及美国研究机构的情况下谈到五分钟。

Baai和Openai均针对基本研究,有可能为深度学习技术提供明显更高的性能,赋予以前难以想象的新体验。两者都能够培训巨大的模型,这是吸引注意力的大量,而且反过来帮助他们招聘和业务发展。

Wudao的子模型之一,Wensu文学,甚至能够预测蛋白质的3D结构,这是一个非常复杂的任务,谷歌' Seepmind还与其alphafold系统一起接受了巨大的真实世界价值。另一方面,DeepMind也是顶级AI研究组织。

然而,虽然Openai和DeepMind是私人资助的,但Baai的一个关键区别是它'在中国科学技术部以及北京市政府的重大帮助下制定和资助。

宝贝的许多居民研究人员来自顶级机构,包括北京大学,清华大学和中国科学院。在机构众多的众多实验室内工作,他们开展了跨越所有相关方向的研究,包括深入学习,加强学习和脑激发智力。最后,Baai的目的是解决阻碍人为综合情报进展的基本问题。

该实验室还与谁在中国科技场景的名单深深地合作:Didi,Xiaomi,Meituan,百度,贝达,Megvii和JD.com等。

像Openai一样,Baai由一名董事会管辖,该董事会限制了深入学习的场景中尊敬的中国研究人员,包括PKU' S歌曲朱,百度' S王海峰,梅格维西' S孙健,和孙健,以及萧米' s cui baoqiu,命名几个。该机构也由Michael I. Jordan,一位UC Berkeley教授和机器学习世界的领先人物建议,以及John E.Hopcroft,ACM A. M.图灵奖获得者。

除了标题制作,记录粉碎的新深度学习模式,这位3岁的机构也产生了一些其他有希望的结果,其中一支队伍净了一支队伍,队伍戈登·贝尔·贝尔奖,以研究微气候预测,a通常被认为是非常沉重的AI来解决的问题。

事实上,该机构为其副主席和校长的副主席和校长而感到骄傲,以至于其超过100个研究人员,副主席和校长,副主席和校长,从字面上声称它为AI研究创造了一个“北京学校”(北京学校) ,吸引来自中国和世界各地的学者。该机构在各种各样的资历和居住地拥有大约一百名研究人员。

随着与政府的良好关系的便利,戈登贝尔奖获奖研究已经被即将到来的2022年冬季奥运会使用。据该机构称,Baai的其他研究结果也被当地政府采用了当地政府更有效地加工民政。

该机构组建了中国的各种AI相关的研究和人才举措,并在英国的Openai或者在英国的Openai(Google / Alphabet)中的甚至更快的步伐,制作大公告。

除了走路之外,除了核心研究的持续努力,Baai还计划与更多合作伙伴合作,今年建立示范应用。在明年,它计划将相关的API巩固到一个具有商业化潜力的平台,该路线在Openai在GPT-3模型之后也接受了它的高度追捧。

“无论有多少款式,这是最大的,最终表现最大的少数最终,最终在行业中商业化,”黄,解释了为什么Baai激光专注于建造大型模型。但校长理解,单独的大型模型将无法实现人工综合情报,并表示贝达也设立了致力于物理法律以及生命科学的个别实验室。

“Wudao是我们的信息模型。我们还在将天岛天使建造为物理学的模型,而天宇天使作为生命科学的典范,“校长说,结束游戏计划是为了使所有人融合在一起,使AI不仅在计算机内工作,还有宇宙。

Baai能够在中国科学院的持续帮助下试图实现非常未来的目标,这已经一直在研究这些基本科学受试者。这个想法是,如果由于缺乏计算能力,他们的研究进展因缺乏计算力而受到阻碍,则Baai现在正在这里拯救这一天。