大規模言語モデルは、同時機械翻訳が可能か?

世界翻訳ニュース

大規模言語モデル(LLM)に「混合ポリシー」と呼ばれる手法を採用すれば、トレーニングを追加しなくても同時機械翻訳の実行が可能になるとする研究結果が発表された。同時翻訳ではオフライン翻訳と異なり、ソーステキストが徐々に蓄積されるため、追加的かつ同期的に翻訳を提供する必要がある。研究者チームはこの点に着目し、読み書きのいずれの動作を行うかを決定するポリシーを設計した。さらに、このポリシーでは解決できない課題を克服するため、同時ファインチューニング(SFT)という技術を採用して翻訳能力の向上を目指している。