トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 686

 
エリブラリウス

賢明かもしれない...

しかし、大学ではすべてが証明され正当化されていると言われ、実験室での実験も行われました。そして、「証明のいらない真実として受け止めなさい」と言われたわけでもない。

私はそう思います)しかし、彼は他のスレッドですべての理論をカバーしていると思います、あなたはただすべてを読み直す必要があります。

フォーラムは、私にとっては非常に厄介なコミュニケーション手段です...多くの情報があり、その9割は忘れられ、残りは見逃されたり読み違えられたり...それ故に、参加者の間でちょっとした誤解が飛び交うのです

 
マキシム・ドミトリエフスキー

私はこれに同意する )しかし、彼は他のスレッドで理論を記述しているようだ、あなたはすべてを再読する必要があります。

掲示板は、私にとっては非常に貧弱なコミュニケーション手段です...情報が多すぎて、9割は忘れられ、残りは見逃されたり読み違えられたり...それゆえ、参加者の間でちょっとした誤解が飛び交うことになるのです

圧縮・解凍はしないが、もう少し時間が欲しい)返す言葉もない。
大切なことをブログや記事にする必要がある(ただし、受け入れてもらわなければならない)、ブログの方が簡単。そうでないと、言いたかったことなどもすべて忘れてしまうし、自分の考えも時間とともに忘れてしまう。そして、そのブログのリンクを掲示板に放り込んで議論する...。
 
アレクセイ・テレンテフ

今のところ、安定したモデルがあります。まだ作業が必要だが、他の作業で忙しい。

入力=価格+13、26イエマ。

前処理、出力=シグモイド(最大、最小、終値)、デルタ(開閉)、微分(最大、最小、終値)、微分の対数(最大、最小、終値)、デトレンド(終値-エメ13、終値-エメ26)、イエマ(13、26)、微分 イエマ(13、26);データセットをデータセット時系列(1キャンドル+5最終)に変換する。合計16×6=96パラメータ。

建築
BatchNormalization(96)です。
GRU(96, L2, Dropout=0.5, 'elu')。
GRU(64, L2, Dropout=0.5, 'elu')。
BatchNormalization(64, Dropout=0.3)。
Dense(32, Dropout=0.3, 'elu')。
Dense(16, 'elu')。
Dense(8,「elu」)。
Dense(3,'softmax')。
オプティマイザー=ナダム
Loss=カテゴリクロステントロピーのこと。

BouncedMAのシグナルは、先のローソク足(ブランチの上)を終了します。

推定値:損失~0.7~0.8、精度~0.55。
しかし、これらの推定は、モデルのシグナルの質について語るものではない。シグナルが training = 1.0, 0.95, 0.0, -0.95, -1.0, そして、売買クラスの予測は ~abs(0.45, 0.7) と変動しているため、より低くなっています。
また、5000行のデータセットのうち、0.8部分で学習を実行しているので、モデルは最新の相場データ(~1000行)さえ見ていないことになります。過去100本のローソク足で予測します。

ご覧の通り、学習は〜45エポックで停止することができます。


コードインジケーター

このスレの書き込みはこうでなくちゃ。再現性のあるデータ、コード、結果。これを議論し、補足し、比較することができる。それ以外は何の価値もないナンセンスなものばかりです。

よくやった。同じモデルをR/MTで表示するのはもう少し後で、コード量と品質の両方を比較することにします。私も今、かなり忙しいんです。でも、この話題は必ず戻ってきます。

グッドラック

 
Alexander_K2 です。

もう一度言います。

予測には、予測値の分布法則を知ることが非常に、非常に重要です。

価格も、増額も、見積もりまでの時間も知らない。しかも、それらをひとつの形にはめ込もうともしない。では、どうやって予測するのでしょうか?この悪名高いティックアーカイブは、すでに10億人のトレーダーによって耕されています。結果=0。

これでほんの少しやっただけで、毎週黒字になるんです。昨日、実質的に聖杯の耳を掴んだ(そして、それは私のシュレディンガーの猫であることが判明した...)。

アレキサンダー! あなたが言うことは、ブログや記事に値する、フォーラムは、そのスレッドを失う... それについて考える、多分主なアイデアは、少なくとも抽象的に、ブログに置くことができ、タイムラインを維持するためのリンクを与える... それは多くの時間を取らないようにする必要があります。

 

私は、大文字の男に、怠けずに自分のNSのモデルを順次提示してくれるように頼んでいる。

1.入力-その間の時間に関係なくインクリメントされる

2.入力 -指数的 時間間隔でのインクリメント。

3. 異なるサンプル量に対応

冠詞として形式化する(無駄にしない)。

 
マキシム・ドミトリエフスキー

アレキサンダー!あなたの議論は、ブログや記事の価値がある、スレッドがフォーラムで失われています...それについて考える、多分主要なアイデアは、少なくとも抽象的な、ブログに置くことができ、時系列を維持するためのリンクを与える...それは多くの時間を取るべきではありません。

そうそう、記事を見ながら考えているのですが、やっぱり時間がないんです。

 
Alexander_K2 です。

1.入力 - 時間間隔に関係なくインクリメントする。

2.入力 - クォート間の指数関数的な時間でインクリメントされます。

for(int i=start;i<rates_total;i++) 
    {
     Buffer1[i]=close[i]/close[i-1];
     Buffer2[i]=close[i]/close[i-3];
     Buffer3[i]=close[i]/close[i-7];
     Buffer4[i]=close[i]/close[i-20];
     Buffer5[i]=close[i]/close[i-53];
     Buffer6[i]=close[i]/close[i-143];
     Buffer7[i]=close[i]/close[i-387];
     Buffer8[i]=close[i]/close[i-1046];
    }
はこのまま与えてもいいのか、それとも違いが必要なのか?
 
Maxim Dmitrievsky:
このような形で餌を与えてもいいのでしょうか?

引用文を読む時間を設定する指数関数的な 数値ジェネレータを搭載している

 
Alexander_K2 です。

引用文を読む時間を設定する指数関数的な数値ジェネレータを搭載している

刻みの意味がないのでは? どのようなスケールでも結果は同じ分布になるはずですから。

 
マキシム・ドミトリエフスキー

こちらも全く同じです。ただ、データは刻みではなく、任意のTFから取得されています。刻みは意味がないのでしょうか? なぜなら、どのスケールでも同じ分布になるはずだからです。

そうではないかもしれません。もう単純に慣れてしまったんです。

重要なのは、論文に方法論があり、時間をかけて実験した糸をたどることができることです。そして、このことは失われることなく、議論する材料となり、思い出として残ることでしょう。

理由: