微信 手机版
首页 > 数码 >
改善多语种之间的翻译质量,微软推新翻译系统 2022-03-24 08:47:36  来源:cnBeta

微软刚刚宣布了自家翻译服务的一项更新,为用户引入了新的机器学习技术,有望显著改善多语种之间的翻译质量。具体说来是,基于“备用专家混合”(spare Mixture of Experts)方案的 Project Z-Code 项目,可让新模型在盲测评估中的得分较以往提升 3~15% 。

据悉,Z-code 是微软更广泛的 XYZ-Code 计划的一部分,着眼于结合多种语言的文本、视觉和音频模型,以创建更强大、实用的 AI 系统。

虽然“专家组合”并不是一套新颖的技术,但它在翻译环境中还是相当实用。该系统的核心,本质上是将任务分解为多个子任务,然后将之委托给更小、更专业的所谓“专家”模型。

Z-code MoE 模型示例:从英语翻译成法语时,可为每个输入动态选择其参数的子集。

各个模型会根据自身特性来预测、并决定将哪个任务委派给哪个专家,从而极大地简化了开发思路。对于普通用户来说,你可将之视作包含多个更专业模型的大模型集合。

微软技术研究员兼 Azure AI 首席技术官黄学东表示:借助 Z-code,我们确实取得了惊人的进步。我们正在利用迁移学习和多任务学习,以从单语言和多语种数据中创建一个极具质量和性能的最佳组合。最终带来一个最先进的语言模型,并为客户带来高效的体验。

结果是,我们看到了一套全新的系统,现能够直接在 10 种语言之间进行翻译,从而消除了对多个系统的需求。

关键词: 翻译系统 翻译质量 学习技术 自家翻译

热点文章
热点 图片

网站首页 |网站简介 | 关于我们 | 广告业务 | 投稿信箱
 

联系邮箱:553 138 779@qq.com备案号:豫ICP备20022870号-6
 

中国网购网 market.sosol.com.cn 版 权 所 有 ,未 经 书 面 授 权 禁 止 使 用