大規模言語モデル(LLM)は、並列データが存在しない場合でも多言語ニューラル機械翻訳(MNMT)において優れた能力を発揮しているが、特に低リソース言語(AIモデルの教師あり学習に用いることができるデータリソースが少ない言語)では、使用頻度の低い言葉の翻訳について苦戦を強いられてきた。しかし、様々な言語の同じ意味を持つ言葉を載せた複数の辞書を互いに連携させて、LLMにプロンプト(指示)を与えることにより、翻訳作業における意思決定プロセスが効果的に導かれることが研究で明らかになった。
大規模言語モデル(LLM)は、並列データが存在しない場合でも多言語ニューラル機械翻訳(MNMT)において優れた能力を発揮しているが、特に低リソース言語(AIモデルの教師あり学習に用いることができるデータリソースが少ない言語)では、使用頻度の低い言葉の翻訳について苦戦を強いられてきた。しかし、様々な言語の同じ意味を持つ言葉を載せた複数の辞書を互いに連携させて、LLMにプロンプト(指示)を与えることにより、翻訳作業における意思決定プロセスが効果的に導かれることが研究で明らかになった。