トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1977 1...197019711972197319741975197619771978197919801981198219831984...3399 新しいコメント Rorschach 2020.08.18 15:23 #19761 残念なことに、TFを上げると結果が悪くなるので、ランジーの方が良いのです。 MAと間引きを追加しました。MAがなければ、間引きはTFの変化として機能し、分布を正規化する。RMS = 間引きステップのルート。MAが間引きより2倍大きい場合、ダウンサンプリングが正しく行われ、予測は高い精度で行われるが、正しい期待値を計算するテスターが必要である。ジグザグはできているのですが、どのような形にすればいいのかわかりません。最小値と最大値を持つインデックスの配列か、インデックスの1つの配列か、価格の配列を一度に表示するかです。 MAではなく、他のフィルターでも良いのですが、インパルス特性だけ知りたいのです。コード中のMAは[1/per]*perとなり、per=4では[0.25, 0.25, 0.25, 0.25]に展開されます。 Rorschach 2020.08.21 16:27 #19762 ロールシャッハ: 森:正解率55.89%、期待値2.36森林の累積増分。正答率55.89%、期待値2.36、同一結果 しかし、違いはあって、刻みが良くなっていることです。 ジグザグの問題点、最小限の変化を制限する方法が明確でない、常にマイクロスイッチングしている。 Evgeniy Chumakov 2020.08.21 16:39 #19763 無意味に近いけど聞いてみる。 NSはこのようなシリーズを予測できるのか? また、シリーズAはシリーズBに依存しているのでしょうか? Maxim Dmitrievsky 2020.08.21 16:43 #19764 Evgeniy Chumakov: 無意味に近いけど聞いてみる。NSはこのようなシリーズを予測できるのか?次のキャラクターが登場する確率とか。 あと、シリーズAとシリーズBには相関関係があるのでしょうか。 これが彼らの直接的な仕事です。 Evgeny Dyuka 2020.08.22 10:13 #19765 TensorFlow 2.3への移行後、エラーが発生するようになりました。"WARNING:tensorflow:最後の11コールのうち11コールがtf.function retracingのトリガーと なる。トレースにはコストがかかり、過剰なトレース数は、@tf.functionをループで繰り返し作成していることが原因である可能性があります " . つまり、あるtf.functionがループしていると宣誓しているのです。tf.functionはありませんが、ループの中でモデルpredict=model.predict(data)をポーリングしています。 tf.functionの説明はこちら これは明らかに未知の存在なのですが、どなたかお分かりになりますか?UPD とにかく、これはある種のクールなもので、これなしではやっていけない、調べる必要がある。TensorFlowとPythonの互換性の問題を解決 します。 Maxim Dmitrievsky 2020.08.24 08:35 #19766 エージェントトレーダーが完成したようです。αテスト用のデモをモニターさせていただきました。ロジックが自明でないため、バグがあるかもしれません。テストしてみよう 今は、LSTMをいろいろなバリエーションで試してみたいと思っていますし、トランスフォーマー(でも、それを理解するのは難しいかもしれません)にも興味があります。 Valeriy Yastremskiy 2020.08.24 08:44 #19767 マキシム・ドミトリエフスキー: トレーダーが完成したようです。αテスト用のデモをモニターさせていただきました。ロジックが自明でないため、バグがあるかもしれません。テストしてみよう 今は、LSTMの様々なバリエーションやトランスフォーマーを試してみたいと思っています(でも、それを理解しようとすると、脳が壊れてしまうかもしれません)。 ロジックはもっと複雑です。一方では良いことだと思います。一方、慣れない土地での虫。トランスフォーマーって何? Maxim Dmitrievsky 2020.08.24 08:47 #19768 Valeriy Yastremskiy: ロジックはもっと枝分かれしています。一方では、これは良いことだとも言えます。一方で、慣れない分野でのバグもあります。トランスフォーマーって何? 時間的シーケンスを扱うための新しいタイプのネットワークで、lstmより優れていると言われています。テキスト認識や機械翻訳などでは、文の文脈を強調するために使われる。つまり、ある単語が何らかの文脈によって他者(前)と関係している場合である。 セルフアテンショントランスフォーマーメカニズム - 人間の注意のアナログ。 Valeriy Yastremskiy 2020.08.24 08:54 #19769 マキシム・ドミトリエフスキー: は、新しいタイプの時系列ネットワークで、lstmより優れていると言われています。テキスト認識や機械翻訳などでは、文の文脈を強調するために使われる。つまり、ある単語が何らかの文脈によって他者(前)と関係している場合である。セルフアテンショントランスフォーマーメカニズム - 人間の注意のアナログ。 そんな重大な合併症をまず、記憶の長短、そして、モデルにおける注意の相似性です。脳が一度に対応できないのです(笑)。でも、もっとうまくいくはずです。 Maxim Dmitrievsky 2020.08.24 08:56 #19770 Valeriy Yastremskiy: まあそんな重大な合併症。まず、記憶の長短、そして、モデルにおける注意の相似性です。脳が確実に追いついていない)))です。)でも、もっとうまくいくはずです。確かに効果はありますが、どこに向かっているのかわからなくなります。 一般に、mlpのような従来の逆伝播網は、時系列には 全くと言っていいほど適さない。最低限必要なのはRNN 1...197019711972197319741975197619771978197919801981198219831984...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
残念なことに、TFを上げると結果が悪くなるので、ランジーの方が良いのです。
MAと間引きを追加しました。MAがなければ、間引きはTFの変化として機能し、分布を正規化する。RMS = 間引きステップのルート。MAが間引きより2倍大きい場合、ダウンサンプリングが正しく行われ、予測は高い精度で行われるが、正しい期待値を計算するテスターが必要である。ジグザグはできているのですが、どのような形にすればいいのかわかりません。最小値と最大値を持つインデックスの配列か、インデックスの1つの配列か、価格の配列を一度に表示するかです。
MAではなく、他のフィルターでも良いのですが、インパルス特性だけ知りたいのです。コード中のMAは[1/per]*perとなり、per=4では[0.25, 0.25, 0.25, 0.25]に展開されます。
森:正解率55.89%、期待値2.36
森林の累積増分。正答率55.89%、期待値2.36、同一結果
しかし、違いはあって、刻みが良くなっていることです。
ジグザグの問題点、最小限の変化を制限する方法が明確でない、常にマイクロスイッチングしている。
無意味に近いけど聞いてみる。
NSはこのようなシリーズを予測できるのか?
また、シリーズAはシリーズBに依存しているのでしょうか?
無意味に近いけど聞いてみる。
NSはこのようなシリーズを予測できるのか?
次のキャラクターが登場する確率とか。 あと、シリーズAとシリーズBには相関関係があるのでしょうか。
これが彼らの直接的な仕事です。
TensorFlow 2.3への移行後、エラーが発生するようになりました。
"WARNING:tensorflow:最後の11コールのうち11コールがtf.function retracingのトリガーと なる。トレースにはコストがかかり、過剰なトレース数は、@tf.functionをループで繰り返し作成していることが原因である可能性があります " .つまり、あるtf.functionがループしていると宣誓しているのです。tf.functionはありませんが、ループの中でモデルpredict=model.predict(data)をポーリングしています。
tf.functionの説明はこちら
これは明らかに未知の存在なのですが、どなたかお分かりになりますか?
UPD
とにかく、これはある種のクールなもので、これなしではやっていけない、調べる必要がある。TensorFlowとPythonの互換性の問題を解決 します。
エージェントトレーダーが完成したようです。αテスト用のデモをモニターさせていただきました。ロジックが自明でないため、バグがあるかもしれません。テストしてみよう
今は、LSTMをいろいろなバリエーションで試してみたいと思っていますし、トランスフォーマー(でも、それを理解するのは難しいかもしれません)にも興味があります。トレーダーが完成したようです。αテスト用のデモをモニターさせていただきました。ロジックが自明でないため、バグがあるかもしれません。テストしてみよう
今は、LSTMの様々なバリエーションやトランスフォーマーを試してみたいと思っています(でも、それを理解しようとすると、脳が壊れてしまうかもしれません)。ロジックはもっと複雑です。一方では良いことだと思います。一方、慣れない土地での虫。トランスフォーマーって何?
ロジックはもっと枝分かれしています。一方では、これは良いことだとも言えます。一方で、慣れない分野でのバグもあります。トランスフォーマーって何?
時間的シーケンスを扱うための新しいタイプのネットワークで、lstmより優れていると言われています。テキスト認識や機械翻訳などでは、文の文脈を強調するために使われる。つまり、ある単語が何らかの文脈によって他者(前)と関係している場合である。
セルフアテンショントランスフォーマーメカニズム - 人間の注意のアナログ。
は、新しいタイプの時系列ネットワークで、lstmより優れていると言われています。テキスト認識や機械翻訳などでは、文の文脈を強調するために使われる。つまり、ある単語が何らかの文脈によって他者(前)と関係している場合である。
セルフアテンショントランスフォーマーメカニズム - 人間の注意のアナログ。
そんな重大な合併症をまず、記憶の長短、そして、モデルにおける注意の相似性です。脳が一度に対応できないのです(笑)。でも、もっとうまくいくはずです。
まあそんな重大な合併症。まず、記憶の長短、そして、モデルにおける注意の相似性です。脳が確実に追いついていない)))です。)でも、もっとうまくいくはずです。
確かに効果はありますが、どこに向かっているのかわからなくなります。
一般に、mlpのような従来の逆伝播網は、時系列には 全くと言っていいほど適さない。最低限必要なのはRNN