トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1054

 
mytarmailS:

どのチャンネルですか?マキシム......

マスキを最適化するのと同じです。


まず読んで理解し、それから・・・と言ったところでしょうか。

価格の極端なレベルを取っているのですが、他に何か付け加えることはありますか?それが彼の戦略の9割で、あとはただのゴミ(と本人が書いている)

簡単なことをクソ難しく書いて、みんなをバカにしているようなものです )
 
マキシム・ドミトリエフスキー

価格の極値レベルを必要としますが、何か追加することはありますか? 単に他のレベルがないだけです。

簡単なことも書けず、みんなをバカにしているようなものです。)

1) 従来の極限値をとる

2) 極値で可能なすべての変種(マグマかもしれない)を選択し、ある構造(レベル)を探す。

3) 彼はネットワークを学習する

 
mytarmailS:

1) 通常のエクストリームを採用している

2) 極値で可能なすべての変種(おそらくμua)を選択して、ある構造(レベル)を検索するもので、すでに述べたように約200のレベルが見つかりました。

3)次に、彼はネットワークを訓練する

MSUAについてはすでにマジシャンが書いているので、あとはPだけです。1,3.200p.s.はデタラメで検証不可能な挑発だ

レベルで、エクストリームから構築されています(笑)。何年読んでるんだよ、まだわかんねーのかよ。

レベルをセグメントでつなげると、ドンチャンネルに なります(笑) http://www.kamynin.ru/wp-content/uploads/2015/05/indicator_nk_003.jpg

 
マキシム・ドミトリエフスキー

MSUAについては、すでにマジシャンが書いてくれていますが、残るポイントは。1,3.約200人などp...sh...と何ら検証不可能な挑発行為

レベルは極限から作られる(笑)。読書歴は何年ですか?

1) Magicianはmguaを読めないと書きましたが、私はそれを彼に示しましたが、あなたは気にしないでしょう。

2)200レベルについて引用してあげたのに、気にしないんですね。

3) そう、レベルは極値から作られるが、処理されていない極値はゴミであり、その中からうまくいくものを取り出すべきである。何百万もの組み合わせの中から200がうまくいく。マジシャンは、あなたのデータは役に立たないがあなたは気にしていないと言いながら、このことも書いている


何かやって理解したいのならやって理解しよう、誰も信用しないで話をしたいのなら他のことをした方がいい。

 
mytarmailS:

1)マジシャンは字が読めないと書いていたので、それを見せたが、どうでもいいんだろう。

2)200レベルほど引用しましたが、気にしないのですね。

3) そう、レベルは極限から作られるが、加工されていない極限はゴミであり、その中から動作するものを取り出すべきである。


何かしたいのなら、それをやって解決しよう、議論して誰も信用しないのなら、他のことをしたほうがましだ。

200とか500とかは関係ないんです。作業用を抜いたNSになったmguaがいた。それはやりすぎだ。私は陰謀論者ではないし、物事をありのままに見ているだけだ。そして、私はこのブロガー叙事詩のジャンルを知っているあなたが自慢したいが、彼らはあなたを賞賛することができますが、理解できないように、人々の目にほこりを投げる必要がある場合。

 
マキシム・ドミトリエフスキー

200とか500とか関係あるのかよ。作業用を抜いたNSになったmguaがいた。それはやりすぎだ。私は陰謀論者ではないし、物事をありのままに見ているだけだ。そして、私はこのブロガー叙事詩のジャンルを知っている、あなたが自慢したいが、人々は賞賛するが、理解されていない彼らの目にほこりを投げる必要があるとき。

もし、あなたが彼を信じないのなら、なぜこのようなことが必要なのでしょうか?

 
mytarmailS:

彼を信じないのなら、なぜこんなものが必要なんだ?

レベルやNCの使い方がメインで、それ以外の情報は省かれています。

レベルを予測因子としてとらえ、確認させてもらった。

何かあれば、追加してください。私は、大量のゴミを読み返すのが億劫なのです。

 
マキシム・ドミトリエフスキー

これは一体何なのでしょうか。情報としては、レベルの使用とNSだけで、他はすべて未公開です。

レベルを予測因子とした、どうなることやら

i nubasでも昔やって捨てました。これは「パントレス」データでの作業であり、結果は同じになります。

 
mytarmailS:

昔、nubasがやって捨てた「無一文」データでも動いています。

なら、何を言ってるんだ、嘘だろう。

質問とプレゼントで、彼のことを理解し、家に帰ることができます。他に選択肢がないのです )
 
マキシム・ドミトリエフスキー

じゃあ、何を言ってるんだ、じゃあ、彼は嘘をついているんだ。

質問とプレゼントを持って帰ってきてください。他に選択肢がないのです )

マキシム、もう一度説明します。

=====

1)いつものように極端なことを言う。

2) 極値で様々な変形(おそらくmgoi)を選択することによって、ある構造(レベル)を検索する。彼はそのようなレベルを約200個見つけたが、これはすでに述べたとおりである。

3)次に、彼はネットワークを訓練する

====

1点目から、すぐに3点目に飛びますが、2点目が一番重要です。


あらゆる一次予測特性はノイズであり、ノイズの中に2%の***が存在する

ネットワークが***を見ようとしないだけです。

が、各予測因子から2%の効用を得るなら、全部合わせて少なくとも30-40%の効用を得る

と言ってネットワークに渡せば、学習してくれます。

理由: