トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 686 1...679680681682683684685686687688689690691692693...3399 新しいコメント Maxim Dmitrievsky 2018.02.16 18:14 #6851 エリブラリウス賢明かもしれない... しかし、大学ではすべてが証明され正当化されていると言われ、実験室での実験も行われました。そして、「証明のいらない真実として受け止めなさい」と言われたわけでもない。私はそう思います)しかし、彼は他のスレッドですべての理論をカバーしていると思います、あなたはただすべてを読み直す必要があります。 フォーラムは、私にとっては非常に厄介なコミュニケーション手段です...多くの情報があり、その9割は忘れられ、残りは見逃されたり読み違えられたり...それ故に、参加者の間でちょっとした誤解が飛び交うのです Forester 2018.02.16 18:21 #6852 マキシム・ドミトリエフスキー私はこれに同意する )しかし、彼は他のスレッドで理論を記述しているようだ、あなたはすべてを再読する必要があります。 掲示板は、私にとっては非常に貧弱なコミュニケーション手段です...情報が多すぎて、9割は忘れられ、残りは見逃されたり読み違えられたり...それゆえ、参加者の間でちょっとした誤解が飛び交うことになるのです 圧縮・解凍はしないが、もう少し時間が欲しい)返す言葉もない。 大切なことをブログや記事にする必要がある(ただし、受け入れてもらわなければならない)、ブログの方が簡単。そうでないと、言いたかったことなどもすべて忘れてしまうし、自分の考えも時間とともに忘れてしまう。そして、そのブログのリンクを掲示板に放り込んで議論する...。 Vladimir Perervenko 2018.02.16 18:26 #6853 アレクセイ・テレンテフ今のところ、安定したモデルがあります。まだ作業が必要だが、他の作業で忙しい。 入力=価格+13、26イエマ。前処理、出力=シグモイド(最大、最小、終値)、デルタ(開閉)、微分(最大、最小、終値)、微分の対数(最大、最小、終値)、デトレンド(終値-エメ13、終値-エメ26)、イエマ(13、26)、微分 イエマ(13、26);データセットをデータセット時系列(1キャンドル+5最終)に変換する。合計16×6=96パラメータ。 建築 BatchNormalization(96)です。 GRU(96, L2, Dropout=0.5, 'elu')。 GRU(64, L2, Dropout=0.5, 'elu')。 BatchNormalization(64, Dropout=0.3)。 Dense(32, Dropout=0.3, 'elu')。 Dense(16, 'elu')。 Dense(8,「elu」)。 Dense(3,'softmax')。 オプティマイザー=ナダム Loss=カテゴリクロステントロピーのこと。 BouncedMAのシグナルは、先のローソク足(ブランチの上)を終了します。 推定値:損失~0.7~0.8、精度~0.55。 しかし、これらの推定は、モデルのシグナルの質について語るものではない。シグナルが training = 1.0, 0.95, 0.0, -0.95, -1.0, そして、売買クラスの予測は ~abs(0.45, 0.7) と変動しているため、より低くなっています。 また、5000行のデータセットのうち、0.8部分で学習を実行しているので、モデルは最新の相場データ(~1000行)さえ見ていないことになります。過去100本のローソク足で予測します。 ご覧の通り、学習は〜45エポックで停止することができます。 コード、インジケーターこのスレの書き込みはこうでなくちゃ。再現性のあるデータ、コード、結果。これを議論し、補足し、比較することができる。それ以外は何の価値もないナンセンスなものばかりです。 よくやった。同じモデルをR/MTで表示するのはもう少し後で、コード量と品質の両方を比較することにします。私も今、かなり忙しいんです。でも、この話題は必ず戻ってきます。 グッドラック Maxim Dmitrievsky 2018.02.16 18:26 #6854 Alexander_K2 です。もう一度言います。 予測には、予測値の分布法則を知ることが非常に、非常に重要です。 価格も、増額も、見積もりまでの時間も知らない。しかも、それらをひとつの形にはめ込もうともしない。では、どうやって予測するのでしょうか?この悪名高いティックアーカイブは、すでに10億人のトレーダーによって耕されています。結果=0。 これでほんの少しやっただけで、毎週黒字になるんです。昨日、実質的に聖杯の耳を掴んだ(そして、それは私のシュレディンガーの猫であることが判明した...)。アレキサンダー! あなたが言うことは、ブログや記事に値する、フォーラムは、そのスレッドを失う... それについて考える、多分主なアイデアは、少なくとも抽象的に、ブログに置くことができ、タイムラインを維持するためのリンクを与える... それは多くの時間を取らないようにする必要があります。 Alexander_K2 2018.02.16 18:29 #6855 私は、大文字の男に、怠けずに自分のNSのモデルを順次提示してくれるように頼んでいる。 1.入力-その間の時間に関係なくインクリメントされる 2.入力 -指数的 時間間隔でのインクリメント。 3. 異なるサンプル量に対応 冠詞として形式化する(無駄にしない)。 Alexander_K2 2018.02.16 18:30 #6856 マキシム・ドミトリエフスキーアレキサンダー!あなたの議論は、ブログや記事の価値がある、スレッドがフォーラムで失われています...それについて考える、多分主要なアイデアは、少なくとも抽象的な、ブログに置くことができ、時系列を維持するためのリンクを与える...それは多くの時間を取るべきではありません。そうそう、記事を見ながら考えているのですが、やっぱり時間がないんです。 Maxim Dmitrievsky 2018.02.16 18:33 #6857 Alexander_K2 です。1.入力 - 時間間隔に関係なくインクリメントする。 2.入力 - クォート間の指数関数的な時間でインクリメントされます。for(int i=start;i<rates_total;i++) { Buffer1[i]=close[i]/close[i-1]; Buffer2[i]=close[i]/close[i-3]; Buffer3[i]=close[i]/close[i-7]; Buffer4[i]=close[i]/close[i-20]; Buffer5[i]=close[i]/close[i-53]; Buffer6[i]=close[i]/close[i-143]; Buffer7[i]=close[i]/close[i-387]; Buffer8[i]=close[i]/close[i-1046]; } はこのまま与えてもいいのか、それとも違いが必要なのか? Alexander_K2 2018.02.16 18:45 #6858 Maxim Dmitrievsky: このような形で餌を与えてもいいのでしょうか?引用文を読む時間を設定する指数関数的な 数値ジェネレータを搭載している Maxim Dmitrievsky 2018.02.16 18:51 #6859 Alexander_K2 です。引用文を読む時間を設定する指数関数的な数値ジェネレータを搭載している刻みの意味がないのでは? どのようなスケールでも結果は同じ分布になるはずですから。 Alexander_K2 2018.02.16 19:12 #6860 マキシム・ドミトリエフスキーこちらも全く同じです。ただ、データは刻みではなく、任意のTFから取得されています。刻みは意味がないのでしょうか? なぜなら、どのスケールでも同じ分布になるはずだからです。そうではないかもしれません。もう単純に慣れてしまったんです。 重要なのは、論文に方法論があり、時間をかけて実験した糸をたどることができることです。そして、このことは失われることなく、議論する材料となり、思い出として残ることでしょう。 1...679680681682683684685686687688689690691692693...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
賢明かもしれない...
しかし、大学ではすべてが証明され正当化されていると言われ、実験室での実験も行われました。そして、「証明のいらない真実として受け止めなさい」と言われたわけでもない。
私はそう思います)しかし、彼は他のスレッドですべての理論をカバーしていると思います、あなたはただすべてを読み直す必要があります。
フォーラムは、私にとっては非常に厄介なコミュニケーション手段です...多くの情報があり、その9割は忘れられ、残りは見逃されたり読み違えられたり...それ故に、参加者の間でちょっとした誤解が飛び交うのです
私はこれに同意する )しかし、彼は他のスレッドで理論を記述しているようだ、あなたはすべてを再読する必要があります。
掲示板は、私にとっては非常に貧弱なコミュニケーション手段です...情報が多すぎて、9割は忘れられ、残りは見逃されたり読み違えられたり...それゆえ、参加者の間でちょっとした誤解が飛び交うことになるのです
大切なことをブログや記事にする必要がある(ただし、受け入れてもらわなければならない)、ブログの方が簡単。そうでないと、言いたかったことなどもすべて忘れてしまうし、自分の考えも時間とともに忘れてしまう。そして、そのブログのリンクを掲示板に放り込んで議論する...。
今のところ、安定したモデルがあります。まだ作業が必要だが、他の作業で忙しい。
入力=価格+13、26イエマ。
前処理、出力=シグモイド(最大、最小、終値)、デルタ(開閉)、微分(最大、最小、終値)、微分の対数(最大、最小、終値)、デトレンド(終値-エメ13、終値-エメ26)、イエマ(13、26)、微分 イエマ(13、26);データセットをデータセット時系列(1キャンドル+5最終)に変換する。合計16×6=96パラメータ。
建築
BatchNormalization(96)です。
GRU(96, L2, Dropout=0.5, 'elu')。
GRU(64, L2, Dropout=0.5, 'elu')。
BatchNormalization(64, Dropout=0.3)。
Dense(32, Dropout=0.3, 'elu')。
Dense(16, 'elu')。
Dense(8,「elu」)。
Dense(3,'softmax')。
オプティマイザー=ナダム
Loss=カテゴリクロステントロピーのこと。
BouncedMAのシグナルは、先のローソク足(ブランチの上)を終了します。
推定値:損失~0.7~0.8、精度~0.55。
しかし、これらの推定は、モデルのシグナルの質について語るものではない。シグナルが training = 1.0, 0.95, 0.0, -0.95, -1.0, そして、売買クラスの予測は ~abs(0.45, 0.7) と変動しているため、より低くなっています。
また、5000行のデータセットのうち、0.8部分で学習を実行しているので、モデルは最新の相場データ(~1000行)さえ見ていないことになります。過去100本のローソク足で予測します。
ご覧の通り、学習は〜45エポックで停止することができます。
コード、インジケーター
このスレの書き込みはこうでなくちゃ。再現性のあるデータ、コード、結果。これを議論し、補足し、比較することができる。それ以外は何の価値もないナンセンスなものばかりです。
よくやった。同じモデルをR/MTで表示するのはもう少し後で、コード量と品質の両方を比較することにします。私も今、かなり忙しいんです。でも、この話題は必ず戻ってきます。
グッドラック
もう一度言います。
予測には、予測値の分布法則を知ることが非常に、非常に重要です。
価格も、増額も、見積もりまでの時間も知らない。しかも、それらをひとつの形にはめ込もうともしない。では、どうやって予測するのでしょうか?この悪名高いティックアーカイブは、すでに10億人のトレーダーによって耕されています。結果=0。
これでほんの少しやっただけで、毎週黒字になるんです。昨日、実質的に聖杯の耳を掴んだ(そして、それは私のシュレディンガーの猫であることが判明した...)。
アレキサンダー! あなたが言うことは、ブログや記事に値する、フォーラムは、そのスレッドを失う... それについて考える、多分主なアイデアは、少なくとも抽象的に、ブログに置くことができ、タイムラインを維持するためのリンクを与える... それは多くの時間を取らないようにする必要があります。
私は、大文字の男に、怠けずに自分のNSのモデルを順次提示してくれるように頼んでいる。
1.入力-その間の時間に関係なくインクリメントされる
2.入力 -指数的 時間間隔でのインクリメント。
3. 異なるサンプル量に対応
冠詞として形式化する(無駄にしない)。
アレキサンダー!あなたの議論は、ブログや記事の価値がある、スレッドがフォーラムで失われています...それについて考える、多分主要なアイデアは、少なくとも抽象的な、ブログに置くことができ、時系列を維持するためのリンクを与える...それは多くの時間を取るべきではありません。
そうそう、記事を見ながら考えているのですが、やっぱり時間がないんです。
1.入力 - 時間間隔に関係なくインクリメントする。
2.入力 - クォート間の指数関数的な時間でインクリメントされます。
このような形で餌を与えてもいいのでしょうか?
引用文を読む時間を設定する指数関数的な 数値ジェネレータを搭載している
引用文を読む時間を設定する指数関数的な数値ジェネレータを搭載している
刻みの意味がないのでは? どのようなスケールでも結果は同じ分布になるはずですから。
こちらも全く同じです。ただ、データは刻みではなく、任意のTFから取得されています。刻みは意味がないのでしょうか? なぜなら、どのスケールでも同じ分布になるはずだからです。
そうではないかもしれません。もう単純に慣れてしまったんです。
重要なのは、論文に方法論があり、時間をかけて実験した糸をたどることができることです。そして、このことは失われることなく、議論する材料となり、思い出として残ることでしょう。