2020年5月26日火曜日
2020年5月23日土曜日
通訳翻訳ジャーナル 機械翻訳2020 (English version)
I have written an article.
Magazine: 124 pages.
Published by: Icarus Publishing (2020/5/21)
Language: English
ASIN: B086PMZP4Z
Release date: May 21, 2020
Product Dimensions: 25.7 x 21 x 0.7 cm
Price: 1320 yen
I think you can find out more about the trends in machine translation in the year 2020 by reading this book.
Today's post was also post-edited using DeepL.
Magazine: 124 pages.
Published by: Icarus Publishing (2020/5/21)
Language: English
ASIN: B086PMZP4Z
Release date: May 21, 2020
Product Dimensions: 25.7 x 21 x 0.7 cm
Price: 1320 yen
I think you can find out more about the trends in machine translation in the year 2020 by reading this book.
Today's post was also post-edited using DeepL.
2020年5月21日木曜日
通訳翻訳ジャーナル 機械翻訳2020
記事を執筆いたしました。
- 雑誌: 124ページ
- 出版社: イカロス出版 (2020/5/21)
- 言語: 日本語
- ASIN: B086PMZP4Z
- 発売日: 2020/5/21
- 商品の寸法: 25.7 x 21 x 0.7 cm
- 価格:1320円
2020年の機械翻訳のトレンドについては、この一冊を読めば分かるのではないでしょうか。
2020年5月20日水曜日
How does the evaluation of machine translation take place?
I will write about how specifically we are assessing the performance of machine translation. We're not developing MT, we're just users of MT. Therefore, our evaluation method is very different from the developer's evaluation method. I write about how to internally evaluate whether a particular MT can be used in practice by a translation company.
For example, when a translation company evaluates MT, the company evaluates the following
[MT evaluation items].
You can rate other items, but we don't rate any more than that. It's too time consuming and too complicated. In fact, I think it's enough to narrow it down to the following three items
[Simple MT evaluation items].
The reason I narrowed it down to these three items is that I think it's wrong to expect the following three items from MT in the first place.
Therefore, there is no problem in excluding these three items when making an evaluation.
* Note that today's article was translated using DeepL.
For example, when a translation company evaluates MT, the company evaluates the following
[MT evaluation items].
- omission/addition
- incorrect translation
- grammatical error
- fluency
- inconsistency
- term appropriateness
You can rate other items, but we don't rate any more than that. It's too time consuming and too complicated. In fact, I think it's enough to narrow it down to the following three items
[Simple MT evaluation items].
- omission/addition
- incorrect translation
- grammatical error
The reason I narrowed it down to these three items is that I think it's wrong to expect the following three items from MT in the first place.
- fluency
- inconsistency
- term appropriateness
Therefore, there is no problem in excluding these three items when making an evaluation.
* Note that today's article was translated using DeepL.
機械翻訳の評価はどのように行われるか
具体的にどのように機械翻訳の性能を評価しているかについて書きます。我々は、MTを開発しているわけではない。MTのユーザに過ぎません。開発する場合の評価方法とは大きく異なります。あくまでも翻訳会社が実務で使用に耐えることができるかどうかを社内で評価するの方法について書きます。
例えば、翻訳会社は、MTを評価する際、以下のような項目を評価します。
【MT評価項目】
【簡易版MT評価項目】
例えば、翻訳会社は、MTを評価する際、以下のような項目を評価します。
【MT評価項目】
- omission/addition/訳抜け及び付け足し
- incorrect translation/誤訳
- grammatical error/文法の誤り(係り受けの誤りも含む)
- fluency/流暢さ
- inconsistency/用語の不統一
- term appropriateness/適切な用語の選択
これ以上の項目についても評価できますが、弊社では、これ以上の項目は評価しません。時間がかかり過ぎるし、複雑すぎるからです。実際、3項目程度に絞れば十分だと思います。
【簡易版MT評価項目】
- omission/addition/訳抜け及び付け足し
- incorrect translation/誤訳
- grammatical error/文法の誤り(係り受けの誤りも含む)
- fluency/流暢さ
- inconsistency/用語の不統一
- term appropriateness/適切な用語の選択
2020年5月1日金曜日
新しい機械翻訳サービスを検証してみました。
新しい機械翻訳サービスが開始されたそうです。デモ版を使わせていただいて検証してみました。
【検証方法】
【各人の評価】
【検証方法】
- 各翻訳者が自分で選んだドキュメントをシステムにアップロードする。
- そのドキュメントに対して機械翻訳を走らせる。
- その結果をGoogle translate と比較及び検証する。
- 様々なオプションを試してみる。
- カスタマイズ化されているとは言え、基本エンジンの性能が高くない。Google Translate や DeepLの性能より劣る。
- 化合物名と実験の部の処理に不満があり。
- 請求項の構造もしっかり理解できていた。Google Translateより優れていると思う。
- 短い文(請求項)は、さすがに精度が良かった。
【各人の評価】
- 50~80点までバラバラでした。
登録:
投稿 (Atom)
-
下のような会話を耳にしたことがあります。 翻訳者:こんな料金で翻訳できるか! 翻訳会社:こんな翻訳にこんな料金払えるか! どっちが悪いんだろうね。
-
ファックスを完全に廃止します。 電話を完全に廃止します。 メールを完全に廃止します。
-
トライアル利用期間は2週間(又は一定の単語数)だったはず。APIも簡単に取得できたのでCATツールに搭載して試してみます。導入するか否かは、以下の通りです。 コストパフォーマンスに優れている。 比較の基準には、Google の機械翻訳を使用する。