トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 398

 
エリブラリウス
ファイルを見てみると、8つの係数があり、入力は23、つまり3つの入力で動作するニューロンがあることがわかります。100の入力のうち、どの3つの入力をこの神経細胞に与えるかを計算するのに24時間かかるということですね。ニューロンは最低でも10入力まで拡張されていると思ったのですが...。

そうですね、厳しい選択です、残り僅かです :)
 
マキシム・ドミトリエフスキー

彼のホームページのリンクを貼っておきましたが、そこにモデルの説明があります。どう表現したらいいのかわからないくらい、Nuclear Machine + Vector Machineと書いてある。mt5版よりも複雑で、オプティマイザーで重みを選択するのではなく、対戦相手とトレーニングするのですが、結果的にそれぞれの予測変数に同じ重みが設定されます。

私の知る限り、参照ベクトル 法は、多次元空間において、すべての学習セット点から最大に離れた超平面を構築し、空間を「はい」と「いいえ」の2つに分割する方法である。スピッティングカーネル変換。そのため、オプティマイザーの計算には非常に長い時間がかかります。 それを訓練するのはニューロンではなく、訓練に加えて、データとの変換やブルートフォースを何度も行うAIシステムなのです。だから、時間がかかるんです。それがちょっと悔しいですね。それにしても、5秒で十分なモデルを市場に出せるとは......。わからない :-)
 
ミハイル・マルキュカイツ

私の知る限り、参照ベクトル法は、多次元空間において、学習セットのすべての点から最大に離れた超平面を構築し、空間を「はい」と「いいえ」の2つのカテゴリーに分割するときに使用されます。スピッティングカーネル変換。そのため、オプティマイザーの計算には非常に長い時間がかかります。 それを訓練するのはニューロンではなく、訓練に加えて、データとの変換やブルートフォースを何度も行うAIシステムなのです。だから、時間がかかるんです。それがちょっと悔しいですね。それにしても、5秒で十分なモデルを市場に出せるとは......。わからない :-)

少なくとも、上記ですでに書かれているように、予測値を大量に詰め込まないことです。)
 
エリブラリウス

ファイルを見てみると、8つの係数があり、入力は23、つまり3つの入力で動作するニューロンがあることがわかります。100の入力のうち、どの3つの入力をこのニューロンへ送るかを、一晩でカウントしているのでしょう。ニューロンは最低でも10入力まで拡張されると思っていたのですが...。

getBinaryClassificator1(x0, x1, x2, x3, x4, x5, x6, x7);


2つのグリッドがあり、それぞれに8つの入力があり、両方のグリッドの結果が前述したように解釈されます。両方がイエスと言えばイエス、ノーと言えばノー、ミックスと言えばミックス、どうだろう...。こんな感じで...。
 

厳しいな...。3つの入力から何かを予測することは可能か?

RNNが10入力、100入力と拡大していけば、その学習に24時間かけることができるのに、無駄なことに時間を使っているように思います。そして今、あなたはエントリーをふるい落とすことに時間を費やしています。そして、トレーニングの上でもない。

 
ミハイル・マルキュカイツ

2つのグリッドがあり、それぞれ8つの入力があり、両方のグリッドの結果が前述したように解釈されます。両方がイエスと言えばイエス、ノーと言えばノー、混在と言えば混在...。こんな感じで...。

8は入力と出力のリンク係数で、入力は3つ(8=23)です。

より正確には、ルールに対する係数。

r0 = (1 - A) * (1 - B) * (1 - C) * p0
r1 = (1 - A) * (1 - B) * C * p1
r2 = (1 - A) * B * (1 - C) * p2
r3 = (1 - A) * (1 - B) * p2 A) * B * C * p3
r4 = A * (1 - B) * (1 - C) * p4
r5 = A * (1 - B) * C * p5
r6 = A * B * (1 - C) * p6
r7 = A * B * (1 - C) * p7

そして、入力はA,B,Cの3つだけです。
 
エリブラリウス

厳しいな...。3つの入力から何かを予測することは可能か?

RNNが10入力、100入力と拡大していけば、その学習に24時間かけることができるのに、無駄なことに時間を使っているように思います。そして今、あなたはエントリーをふるい落とすことに時間を費やしています。そして、トレーニングの上でもない。


最新版では2nsの委員会を使用しているため、その結果を比較します。
 
マキシム・ドミトリエフスキー

最後のバージョンでは2nsの委員会を使用しているため、その結果を比較します。

ニューロンを10入力に拡張するとか...。
しかし、1024までのルールを追加する必要があります。

r0 = (1 - A) * (1 - B) * (1 - C) * p0
r1 = (1 - A) * (1 - B) * C * p1
r2 = (1 - A) * B * (1 - C) * p2
r3 = (1 - A) * B * (1 - C) * p
3A) * B * C * p3
r4 = A * (1 - B) * (1 - C) * p4
r5 = A * (1 - B) * C * p5
r6 = A * B * (1 - C) * p6
r7 = A * B * (1 - C) * p7


.....

r1023 =

 
Maxim Dmitrievsky:

少なくとも、上に書いたように、予測因子をたくさん入れてはいけない、どうせ全部排除されるから :)。


ここで、私は賭けの準備をします。これは実践からです。オプティマイザーを使っていて感じたこと。

列数が行数より少ない場合、入力数はネットワーク多項式の 条件サイズより 小さくなる。

列と行の数が同じであれば、入力数と多項式サイズはほぼ同じになります。

列が行より多い場合、多項式のサイズは入力数より小さくなる。

つまり、列と行の数がほぼ等しいことが必要なのです。すると、十分な数の入力で多項式が得られ、その大きさは入力の数にほぼ等しくなる。

つまりはファイルが大きくなればなるほど、モデルはマルチパラメトリックになる。入力数と多項式のサイズが大きくなり、モデルがより賢くなったことがわかる。で、その上で。

また、同じファイルを複数回実行する場合、入力パラメータのセットは常に異なる。これは、分割の際にサンプルがランダムに分割されるためである。しかし、同じファイルを実行し、全く異なるモデルが得られたとしても、少なくとも同じように動作するはずです。これは、与えられたファイルの中にどの魚がいるのか、という問いに対する答えです。実行ごとに異なる場合は、データが出力と無関係であることを意味します。こんな感じで...。

 
エリブラリウス

8は入力と出力のリンク係数で、入力は3つ(8=23)です。

より正確には、ルールに対する係数。

r0 = (1 - A) * (1 - B) * (1 - C) * p0
r1 = (1 - A) * (1 - B) * C * p1
r2 = (1 - A) * B * (1 - C) * p2
r3 = (1 - A) * (1 - B) * p2 A) * B * C * p3
r4 = A * (1 - B) * (1 - C) * p4
r5 = A * (1 - B) * C * p5
r6 = A * B * (1 - C) * p6
r7 = A * B * (1 - C) * p7

入力はA、B、Cの3つだけです。


カップリング係数とは何ですか?使用した入力のリストです。各多項式の前にあるのは正規化で、8つの入力が記述されていますが、ファイルの一番下をご覧ください。

//変数 x0: Del

//変数 x1: Del1

//変数 x2: VDel

//変数 x3: VDel1

//変数 x4: VDel6

//変数 x5: ST5

//変数 x6: VAD11

//変数 x7: VVolum4

3つの入力はどこにあるのか?8人いるとき。

あなたが引用した例は、Reshetovの別の研究によるもので、オプティマイザとは何の関係もない。

理由: