トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2962

 
Maxim Dmitrievsky #:
世界的には何の影響もない。

主なことは、それを信じてより頻繁に繰り返すこと、あるいはその逆である。

 
mytarmailS #:

主なことは、それを信じてより頻繁に繰り返すこと、あるいはその逆です。

何かをやったのに、最初から無意味だと言われると悔しいのは分かるよ)
せめて、何が起こったのか、カットをいくつか見せてほしい
 
Maxim Dmitrievsky #:
何かをやり遂げたと思ったら、それが無意味だったと言われたら悔しいのは分かるよ。)
せめてFFFtitのカットだけでも見せてくれ。

私がカット自慢をしたことがありますか?

FFを使ったトレーニングに限界はないが、ターゲットを絞ったトレーニングには限界がある、と言っているのだが......。

 
mytarmailS #:

カットについて自慢したことがあっただろうか?

FFを使ったトレーニングに限界はないが、的を絞ったトレーニングには限界があると言っているんだ。

実用的な、例えばグレイルを作るためのね。
 
mytarmailS #:

カットについて自慢したことがあっただろうか?

FFを通したトレーニングには制限がないが、ターゲットを絞ったトレーニングには制限があると言っているんだ。

言い争いを始めたのはあなたで、それをフォメンコが拾ったんだ(笑)。

考えが変わったのか?

 
Maxim Dmitrievsky #:
例えば、聖杯を作るために、実用的な方向に進もうとしているだけだ。

FFの概念を別の角度から見る必要があるだけだ。エラーを最小化することもFFだ。

実際、FFの選択はトレーニングデータの選択に劣らず重要だ。つまり、必要なTCアクションを最大化し、不必要なTCアクションを最小化するのです。

 
Andrey Dik #:

あなたが最初に私に反論し、それをフォメンコが拾って......)

気が変わったのか?

FFはターゲットに劣るというのが私の主張だったのですが?

それはどこから来たんだ?

デタラメの匂いがする。

 
mytarmailS #:

つまり、FFはターゲットよりも優れていないというのが私の主張か?

それはどこの話ですか?

デタラメの匂いがする。

私はもともと、すべての学習はFFを最大化することだと言った。

あなたとフォメンコは、そのようなアプローチはオーバートレーニングにつながると主張し、同時に私は、オーバートレーニングが起こるのであれば、FFは適切に設計されていないと言った。

あなたが何を感じ取っているのかはわからないが......)

赤の他人を "小突く "習慣をやめたようで、それはもう結構なことだ。

 
Andrey Dik #:

ったな。

あなたとフォメンコは、そのようなアプローチはオーバートレーニングにつながると主張し、同時に、オーバートレーニングが起こるのであれば、FFは適切に設計されていないと言いました。

フェアプレーヤーがフェアプレーヤーがフェアプレーヤーがフェアプレーヤーがフェアプレーヤーがのののの太って太って太って太の太って太って太って太って太って太って太って太って太って太って太って太って太って太って太)

赤の他人を "小突く "習慣をやめたようで、それはもう結構なことだ。

きっと一昔前は、少し違った会話をしていたのでしょうが、今は一般的にかなり違う、違う・・・。


そう、大晦日以降は、誰に対しても「あなた」と呼びかけることにした。

 
Andrey Dik #:

エラーの最小化もFFだ。

実際、FFの選択はトレーニングデータの選択に劣らず重要である。つまり、必要なTCアクションを最大化し、不必要なTCアクションを最小化することです。

私が考える唯一の選択肢は、トレーンの外、テスト上で最適化し、トレーン上でMOを訓練することです。これは、異なる歴史的な時代から共通するものを引き出すという点で、まだいくらか理にかなっている
理由: