Yahooニュース

AIの誤訳なぜ起きる 専門家が解説[2024.9.22]

AIの誤訳なぜ起きる 専門家が解説

【記事詳細】Yahooニュース

✍️記事要約

✅ 進化するAI翻訳でも“誤訳”なぜ起こる?発展途上のAI×人間が出来ることは?専門家が解説

報道などでの翻訳テロップに対して、「誤訳ではないか」との反応が相次いでいる。つい先日は、米トランプ前大統領の2度目の暗殺未遂事件を受けて、ハリス氏がXに投稿した「I am glad he is safe. Violence has no place in America.」との文言が、ニュース番組で「彼が無事でよかった。アメリカに暴力は存在しない」と訳され、内容の誤りを指摘する声があがった。(「アメリカでは暴力は許されない/暴力が入り込む余地はない」などの訳が正しいとされる)

小さな訳の違いが、大きなイメージの違いを生むこともある。ある日本メディアが、日本語版で「福島第1原発処理水」だった記事タイトルを、英語版では「Fukushima water」と表記した。これには「他のメディアと同じように『treated water(処理された水)』でよくない?」「“汚染水”を意味することを知ってて書いてるだろ!福島への風評被害だ」といった批判の声も出ている。

 技術の進歩によって、人間以外による翻訳も普及しつつある現代。『ABEMA Prime』では、AI翻訳時代において、なぜ誤訳やニュアンスの違いが生じるのか、専門家とともに考えた。

■AI翻訳で必要とされる2つの大きな要素とは

翻訳・通訳の経験を生かして、AI翻訳を研究する立教大学の山田優教授は、翻訳には、何を伝えたいかの「命題」と、どう伝えたいかの「モダリティー」の2要素が必要だと説明する。状況や経緯をAIに理解させていないと、意味は合っていてもニュアンスが違うなど、AIの“誤訳”が生まれることもある。

 ハリス氏のケースは、「直訳としてはある程度間違っていないが、伝え方が間違っていた」との見方だ。「AI翻訳が進化し、例えば“You can go.”は、canが『行く能力を持っている』か、『行く許可を与えるか』のどちらか、文脈を踏まえた誤訳になりつつある」。

 一方で「機械翻訳はニュアンスや心情が読めないと言われがちだが、人間も間違える」と、誤訳はAIに限らない現状も語る。「ビリー・アイリッシュの発言が、雑誌で過剰な“女性言葉”に日本語訳されて、読者から『こういうキャラじゃない』と指摘された。メッセージは合っていても、伝え方を間違えれば問題は起こる」。

■生成AIの進化で「人間らしい」表現も翻訳が徐々に可能に

山田氏が生成AIの変遷を振り返る。「Googleなど今までの機械翻訳は、文字情報から確率論に基づいて、『おそらく世間で訳されている』であろう妥当な訳を出していた。ChatGPTも文脈を与えなければ機械翻訳と同様だが、周辺情報を加えると、ニュアンスをくんだ訳が出てくる。ユーザー側が文脈を絞り込むことで精度が上がる」。

 そうした現状を踏まえつつ、「大規模言語モデルの可能性を、もっと探りたい」と考える。「言葉を数値化ではなく、ベクトル化する。“I love you.”を日本語で『月がきれいですね』と訳すのは湾曲表現だと言われてきたが、両者を大規模言語モデルでの“コサイン類似度”で示すと、真意はどちらも近いものになる」と説明した。

 日常会話でも直訳では困るシチュエーションがある。例えば飛行機のドリンクサービスで、「私は紅茶で」とだけ言うような場面だ。「かつては“I am a tea.”と訳されることもあったが、最近の翻訳は『私は今、飛行機で注文したい』と伝えると、ちゃんと訳してくれる」という。

■AI翻訳に人間ができることは

ネット掲示板「2ちゃんねる」創設者のひろゆき氏は、「ネット上のデータを使った方が安上がりのため、SNS投稿を拾ってきてしまう」と推測する。処理水報道の翻訳についても、「英語圏の人が『“Fukushima water”で伝わる』と多用すれば、そのデータが蓄積される。一般ユーザーの言葉の使い方に左右される現状で、機械翻訳には限界があるのではないか」と考察する。

 個々の誤訳に対して、NG表現をリスト化して、1対1で対応させることは可能だと、山田氏は説明する。「ある程度は統計的に処理しても、最後で個別に置き換えることができる。できない場合には、発信者が確認する責任を取るところに落ち着いてくるだろう」。

 これにひろゆき氏は「ChatGPTなども差別表現などの禁止ワードを設定しているはずだが、“Fukushima”も“water”も、単語としては問題ない。組み合わせでアウトになる単語まで、人力で制限するのは難しい」と疑問を投げかけると、山田氏は「最終的には、信頼してチェックできる人が目を通す必要がある」と返していた。

■英訳 
Reactions questioning "translation errors" in news captions have been pouring in. Recently, after the second attempted assassination of former U.S. President Trump, Harris posted on X, saying, "I am glad he is safe. Violence has no place in America." This was translated on a news program as "I am glad he is safe. Violence does not exist in America," which led to comments pointing out that the translation was incorrect. (It is argued that the correct translation should be something like "Violence is not allowed in America" or "There is no room for violence in America.")

Small differences in translation can lead to significant differences in interpretation. A Japanese media outlet, for example, titled an article in Japanese "Fukushima Daiichi Nuclear Power Plant Treated Water," but the English version was titled simply "Fukushima water." This drew criticism, with comments such as, "Why not use 'treated water' like other media?" and "They know it implies 'contaminated water'! This is damaging Fukushima's reputation!"

In today's world, where non-human translations are becoming more common due to technological advancements, the program 'ABEMA Prime' discussed with experts why translation errors and differences in nuance occur in the age of AI translation.

**The Two Key Elements Required for AI Translation**

Professor Yu Yamada of Rikkyo University, who researches AI translation based on his experience in translation and interpretation, explained that translation requires two key elements: the "proposition," or what one wants to convey, and the "modality," or how one wants to convey it. If AI does not understand the context or background, translation errors in nuance can occur even if the meaning is correct.

In the case of Harris’s statement, some believe that "while the literal translation was not entirely wrong, the way it was conveyed was incorrect." Professor Yamada explained, "As AI translation evolves, for instance, 'You can go.' might mean either 'You are able to go' or 'You are permitted to go,' depending on the context, but translation mistakes can still happen."

On the other hand, he pointed out that "it is often said that machine translation cannot read nuances or emotions, but humans make mistakes too." For example, "Billie Eilish's statements were translated into exaggerated 'feminine language' in a magazine, leading readers to point out that 'This is not her character.' Even if the message is correct, if it is conveyed incorrectly, problems arise."

**With the Evolution of Generative AI, "Human-like" Expressions Are Gradually Becoming Translatable**

Reflecting on the changes in generative AI, Professor Yamada said, "Machine translations like Google Translate have so far relied on text data to generate translations based on probability, offering translations that are 'likely used in society.' ChatGPT operates similarly without added context, but when additional information is provided, it can produce translations that capture the nuance. If users narrow down the context, the accuracy improves."

Considering these advancements, he expressed his desire to explore the potential of large-scale language models further. "Instead of numerical representations, words are being vectorized. Translating 'I love you.' as 'The moon is beautiful tonight' in Japanese has long been considered an idiomatic expression, but when viewed through the 'cosine similarity' of large language models, both convey nearly the same underlying sentiment."

Even in everyday conversation, direct translations can cause issues. For instance, during a drink service on a flight, saying "I’ll have tea" could once be translated as "I am tea." However, "Recent translations will accurately convey 'I would like to order tea on this flight.'"

**What Humans Can Do in the Era of AI Translation**

Hiroyuki Nishimura, the founder of the online forum "2channel," speculated that "using online data is cheaper, so AI ends up picking up posts from social media." He also noted that in the case of the translation regarding treated water in Fukushima, "If many English speakers use the term 'Fukushima water,' that data will accumulate. Given that machine translation is influenced by how everyday users phrase things, there may be limitations to AI translations."

Professor Yamada explained that it is possible to create a list of inappropriate expressions for specific translation errors and handle them on a one-to-one basis. "While some of the process can be handled statistically, individual errors can still be corrected at the final stage. In cases where this cannot be done, it will ultimately fall to the communicator to verify and take responsibility."

In response, Hiroyuki remarked, "ChatGPT and similar technologies likely have banned words for discriminatory expressions, but neither 'Fukushima' nor 'water' are problematic words on their own. Manually banning word combinations that lead to problematic meanings seems difficult." Professor Yamada agreed, concluding that "Ultimately, a trusted person who can check the translations will be needed."

◇   ◇   ◇

☘️ヤフコメ❗️ピックアップ☘️

✅ ✅ ✅

-Yahooニュース
-

© 2024 News HACK By Powered by AFFINGER5