lost(longman)
https://www.ldoceonline.com/jp/dictionary/lost から引用
if you are lost, you do not know where you are and are unable to find your way somewhere
lost(英辞郎)
https://eow.alc.co.jp/search?q=lost より引用
〔自分がどこにいるかが分からなくなり〕道に迷った、迷子になった
https://www.ldoceonline.com/jp/dictionary/lost から引用
if you are lost, you do not know where you are and are unable to find your way somewhere
https://eow.alc.co.jp/search?q=lost より引用
〔自分がどこにいるかが分からなくなり〕道に迷った、迷子になった
英単語をカタカナ表記する。
1
英単語をカタカナ表記に変換してくれるものは沢山あるが、、、ちょっと、実際の音と違うことがあるんですよね。。。。 単語によって、あたりはずれあると思うが、ちょっと、個性的で貴重!!
未解決。
NVIDIAのGPU等において、ECCのないグレードである、GEFORCEとかでAIの計算をして大丈夫か。 宇宙線とかでビットエラーが起きるのでは?それで、めちゃくちゃな計算結果が出るのでは??? 深層学習のトレーニング途中のデータ部とかでのビット誤りだと、おそらく、何の問題もないと思うが、そんなに単純にデータ部のエラーとなるのか??? 意外とデータ量の比較で、ほぼ常に、些細なデータ部のエラーになるのだとうか。 Accuracy直撃で、正解率103%とかになったら、Arxivに投稿しよう(絶対抜かれないので。。。)。
未解決。
Attention is all you needで有名なTransformerの画像への展開としてViT等があるが、これを画像のデータセットcifar10に適用した場合、たぶん、90%の正解が出せていないと思う。このデータセットは、CNN系のネットワークでは簡単に95%とか、もっと、98%とか出せる(当然、augmentationとかは使う)。 さて、これは何が原因か。 原因として考えられる方向性は2つ。
全くわからない。 ViT他の改良版等が待たれる。Transformerの発展形のPerceiver等の動向にも注目したい。
この疑問に対する回答とかコメントがあれば、お願いします。
話が捻じ曲がるかもしれませんが。。。。
xxx = DNA
話が捻じ曲がっているとは思いますが、 7歳ぐらいの子供も、DNAによって仕込みが入っており。
上記の時間と、数から考えて、そう簡単には、人は超えられないはず。
GPLは、難しそう。。。。 一例、以下。 https://jpn.nec.com/oss/osslc/doc/20200221_OSC_TokyoSpring16up.pdf
少し気になるのが、面白い技術がgithub等で公開されたときに、 最初の人がGPLにしてしまう(?)と、後続のもGPLになる場合が多く(?)、 何か、この特定の技術がGPLに染まるのが。。。抵抗がある。