机器翻译应用技术讨论
2023小牛翻译论坛上,五位嘉宾在Panel环节中对热点问题开展了深入讨论,提出了很多有价值的观点,来自各平台的网友也受到论坛的氛围所影响,积极互动,提出了很多值得思考的问题。接下来的Q&A环节由小牛翻译CTO杜权博士主持,来自阿里巴巴达摩院机器翻译算法负责人谢军博士、小米AI实验室机器翻译负责人李响博士、天津外国语大学高翻学院硕士生导师朱华、北京语言大学高翻学院笔译系主任韩林涛对网友关注的问题做了详细解答,以下就是Q&A环节专家们的解惑:
——— Q&A环节 ———问题1:多模态使用的是一个独立的大模型,还是每个模态有单独的模型?(B站网友:Lucky-259)李响:各个独立的模型被用于解决各自的任务。例如,语音翻译是先识别语音内容,然后进行翻译;图像翻译是先识别图像内容,再进行翻译。目前,我了解的情况是,这些模态的完全覆盖可能还没有实现,虽然可能有一些演示样例(demo),但商业化应用似乎还比较有限。主持人:那目前您的团队有商业化的计划吗,比如图像结合,或者语音结合这方面的尝试?还是说目前处于初步探索阶段?李响:目前没有,主要原因是谁来买单的问题。虽然多模态可能会解决一些特定案例并找到一些有趣的问题,但实际上在大多数情况下,多模态可能并不是必需的,甚至并不普遍。举个例子,对于人工译员来说,他们通常只需要处理文字内容,不会特意去寻找相关的图像。一般来说,文字越多,歧义就越少。因此,想要解决多模态的问题,就需要有人愿意为此买单。比如说,这款产品是付费的,还是按照许可证去销售?或者是定制化的项目?如果完全致力于打造领先的用户体验,可能需要投入大量研发资源,但最后实际使用的用户可能很少。这种统一模型可能并非刚需,因为已经有许多很好的替代方案,用户实际上可能对此并不关心,除非在学术界的应用中有一些新颖的研究。
问题2:闭源趋势下该怎么进行翻译大模型的研究?(视频号网友:Lucky)谢军:我们目前从事的研究方向,(计算资源上)可能并不那么友好。我们发布了一些模型,目前是13B和1.7B,也计划推出更小的模型。此外,我们也在进行一些MoE(Mixture of Experts)策略的研究。我们的研究产出会在魔搭社区开源,希望能对大家有所帮助。目前确实是一个比较困难的阶段。ChatGPT在去年11月30日发布,之后国内大部分公司才开始进行相关应用研究,实际上大规模地投入直到春节后(即二三月份)才开始展开。不仅是学术机构,包括公司在内,大家都还没有准备好。因此,如何找到平衡点是大多数公司比较头疼的问题。如果有V100,做一些小规模的相关研究是没有问题的。如果节点间通信带宽还合适,把一些卡利用起来,用百卡左右的集群去做一些规模不大的实验没有什么问题。现在这个阶段,对于研究者来说相对较容易。因为在研究中,只要找到一个合理的动机,并且解决方法可行,模型大小并不一定是最关键的。但对于工业界来说则不同,需要维护千级别的大规模集群,本身代价就很大。目前对于研究人员来说,相对于工业级别的要求会更友好,可以继续尝试不同的方法,工业界处于相对比较困难的阶段。因为如果模型太小,效果可能不太好;如果追求通用性,专业性又可能有所损失。如何找到平衡点,目前大家还在摸索,尚未形成成熟的经验。这可能需要一段时间,我认为可能还需要几个月到半年的时间,大家才能慢慢找到感觉。
问题3:大模型的输出有不可控性,怎么样去设计高效简介的prompt来更广泛适应不同语种翻译呢?(视频号网友:樽前)韩林涛:实际上,对于这个问题我没有特别确切的答案。因为我们接触到很多不同语言的学生和自由译者。有些人专注于中俄翻译,有些人专注于中英翻译,还有一些人则从事英中相反方向的翻译。你会发现在这样的多样性中,每个人总是有自己特别喜欢的提示(prompt),并且总是会使用一些奇特的提示。比如在我的这个提示里,我使用了一个分享中的建议,即只要在提示里加上“简明扼要”,最终的翻译质量就会比不加这个短语要好。同样,每次提出问题时,加上“您”这个词比不加时的翻译质量也会更好一些。所以这些技巧可能看似玄妙,但我个人对研究它们没有特别大的兴趣。另外,随着不断推出新的模型,如GPT-3.5、16k以及GPT4等,模型总是会有不同的调整。如果要不断跟进这些变体去做研究,会是一项相当耗时的工作。目前有人在研究如何优化生成的结果,例如生成同义句,即意思相同但表达方式和结构不同的句子。有一些ACL论文在探讨如何基于语言学知识,对文本进行完美优化,并通过比较不同结果来评价质量。这些方法基本上都是自动化的,相当于使用自然语言处理技术进行优化。然而,对于我们许多人来说,可能没有足够的精力去进行这些研究。目前在翻译行业,至少在多语言翻译领域,仍没有确切的定义什么样的提示是一个好的提示。个人也没有专门进行这方面的研究。我认为在研究方法上,可能类似之前提到的那种方法,即通过做变体的方式进行研究,可能是可行的。然后通过自动化的方式,以及与人工的结合,像李时珍尝百草一样,找到最佳的组合方式。
问题4:涉及特定领域的专业术语或文化背景的翻译,如何确保LLM技术在这些场景中能够达到高质量的翻译结果?(视频号网友:water)朱华:很抱歉对于这个问题我也没有特别确切的答案。对于专业术语来说,目前技术上能解决的方法,就是附带词汇表,把可能用到的专业术语提前列到表格里,在调用大语言模型翻译时候予以替换。比如,对于时政文献专业术语翻译来说,有翻译“国家队”在做,我们直接使用就可以了。对于文化背景的翻译,目前还是比较难的,后续希望能通过增加更多的训练数据,最终能实现根据上下文高质量的翻译。
问题5:随着大型语言模型的兴起和发展,对于多语言机器翻译领域来说,目前存在着哪些挑战和困难?(视频号网友:顺流俞)谢军:实际上,我个人认为这并不算是一个挑战,而是技术不断演进的过程。从SMT到NMT再到现在的大模型,实际上是技术不断演进的过程,我们在利用不断探索技术利用知识的过程。我更愿意把它看作是一个机会。因为以前我们无法解决、或解决得不够好的问题,比如篇章问题,刚刚李响老师提到的例子很好,像风格化的问题、复杂语义的问题,在过去很难有好的技术去解决,现在变得更容易解决了。大家有机会看到更好的翻译输出,在一些更复杂的场景中能够表现得更好。实际上,我认为提出这个问题时,大家更多地是把大模型和机器翻译视为两个技术。但是机器翻译实际上是一个任务,是要用什么样的技术来更好地完成这个任务。如果我们换一种视角,将重点放在如何更好地完成机器翻译任务上,而不是把大模型和机器翻译看作对立的东西,那么大家不会觉得这是一个挑战,而是一个重要发展方向。以上就是本届论坛Q&A环节的全部问题。
机器翻译技术正不断演进,大语言模型的出现为我们带来了新的可能性和挑战。我们看到了大模型在提高翻译质量、解决篇章问题和处理多模态等方面的优势。同时,我们也认识到大模型在商业化应用中还面临着成本、安全、定制化等问题。在论坛中,各位嘉宾分享了宝贵的经验和深入的见解,引领着机器翻译技术的前进方向。同时,通过与网友的互动和答疑解惑,我们也了解到了广大用户的需求和关注点,这将进一步推动我们不断优化和改进机器翻译技术,以更好地服务于大众。在此,我们向所有参与本次论坛的嘉宾和网友表示衷心感谢。期待2024与大家再次相聚,共同见证机器翻译技术的蓬勃发展!
论坛回顾
随着计算机对人类自然语言的学习和理解程度突飞猛进,人机交互的方式也在迅速而深刻的改变着,一种广泛而又有着极强创新性的模型迅速成为各大公司入局竞争的重点——大语言模型(LLM),这个被视为通往通用人工智能的捷径、被誉为新科技革命爆发奇点的新应用,究竟与机器翻译的发展有什么样千丝万缕的联系?
7月15日,由小牛翻译主办,东北大学自然语言处理实验室协办的第三届小牛翻译论坛(NiuTrans Forum 2023)在线上成功举办。
本届小牛论坛聚焦大语言模型时代下机器翻译产业发展,技术创新以及产品落地应用,来自阿里巴巴达摩院机器翻译算法负责人谢军、小米AI实验室机器翻译负责人李响、天津外国语大学高翻学院硕士生导师朱华、北京语言大学高翻学院笔译系主任韩林涛以及小牛翻译CTO杜权围绕以上主题做了报告分享,“主题报告环节由小牛翻译总裁张春良主持,在报告讲解后,来自各平台网友积极互动,提出了很多有建设性的问题,报告嘉宾也针对这些问题,给出了专业的解答。