fanta_orange_grapeの(日記というより)記事のつもり

いままでの人生で一番美味しかったもの = 紅茶とトースト(高校生)。

技術論文で意味が取れなかった英文。1勝1敗。

技術論文で意味が取れなかった英文。を集めてみます。

意味が取れなかった英文

まず、1個目。1敗。(2023/07/27)

Fisher in his works of 1922 and 1925.[13][14][15] Fisher assumed that the conditional distribution of the response variable is Gaussian, but the joint distribution need not be. In this respect, Fisher's assumption is closer to Gauss's formulation of 1821.

文書の出所:

https://en.wikipedia.org/wiki/Regression_analysis

ChatGPTに訳してもらうと

この仮定はR.A.フィッシャーによって1922年と1925年の著作で緩和されました[13][14][15]。フィッシャーは応答変数の条件付き分布がガウス分布であると仮定しましたが、共同分布はそうでなくてもかまわないとしました。この点において、フィッシャーの仮定は1821年のガウスの定式化により近いものとなります。

↑これに対するコメント。

, but the joint distribution need not be.

↑単にbutでつないで。。。。(不要な?)述語がないだけなんだが。。。。
なかなかの低レベル。

意味が取れなかった英文(無罪バージョン)

まず、1個目。無罪なので1勝。(2023/07/22)

As the amount of text data available in Book corpus or English Wikipedia, text is gathered from multiple sources for pretraining models like XLNet, RoBERTa, ELECTRA, BART and T5.

文章の出所:

https://arxiv.org/pdf/2108.05542.pdf

ChatGPTに訳してもらうと

Book corpusや英語版Wikipediaなどの利用可能なテキストデータの量が増えるにつれて、XLNetやRoBERTa、ELECTRA、BART、T5などの事前学習モデル向けに、複数の情報源からテキストが収集されています。

なんか、「増える」とかの意味が追加されている。しかも、上記は、内容が不整合している。(「Book corpusや英語版Wikipediaなどの利用可能なテキストデータの量」と、XLNetとかは関係ありません!)

ChatGPTに英語を修正してもらうと、

As the amount of text data in resources like Book corpus and English Wikipedia increases, text is collected from multiple sources to pretrain models such as XLNet, RoBERTa, ELECTRA, BART, and T5.

increasesの追加がポイント。
でも、文章としては正しいかもしれないが。。。。内容は間違えています。

コメント

アドバイスなどあれば、お願いします。