トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2261 1...225422552256225722582259226022612262226322642265226622672268...3399 新しいコメント fxsaber 2021.01.02 22:36 #22601 マキシム・ドミトリエフスキー: 複雑なモデルは大きな利点ですが、それに到達するためには、すでに成功裏に費やされた2、3年の人生が必要なのです 生物多様性がすべてです。 Maxim Dmitrievsky 2021.01.02 22:41 #22602 fxsaber: 生物多様性は私たちのすべてです。簡単な例です。全特徴空間を 含む、異なるパラメータVS一回のトレーニングで数千回の実行。そして、同じように可視化し、余計なものを排除して分析します。 まあそれはそれとしてを、好きなように。 Maxim Dmitrievsky 2021.01.03 00:14 #22603 fxsaberこのようなTSをリエンジニアリングできるMOはいないでしょう。過去に現在のTSと最も似ている部分を見ているのです。そして、統計的に何らかの方向への動きが優勢になった場合、そこにシグナルを出すのです。その前に、類似のセグメントの検索を単純化するために、価格シリーズではなく、変換された価格シリーズで実行されている場合、例えばジグザグやバーがバイナリロジックに置き換えられます:アップ(0)/ダウン(1)。そうなると、MOのためのリエンジニアリングの作業はかなり複雑になってきます。 見逃した...こういうのを例のトレードでやってみるのも面白いですね。 は2点あります。 ジグザグなどの価格変換は、MOがあまり気にしていない分析方法です。任意の記号を任意の数だけ記入し、情報量の少ないものをフィルタリングしてモデルを軽量化することができます。ジグザグなどはすべて、同じデータを別の表現にしたものに過ぎません。 MOは一般化するので、どこで取引して、どこで取引しないかという例を出せば、うまくいくかもしれませんね。 面白いのは、ジグザグを通して何らかのパターンを見つけたと思うことです。しかし、ほとんどの場合、それは千変万化する季節依存のベールに包まれたようなものです。まあ、チックなら別のものでも良いのですが。 MOが自分のデータでTSをリッピングすることも判明するかもしれない でも、ノートパソコンをアップグレードするまでは、ティックをいじる気にはなれませんね fxsaber 2021.01.03 00:37 #22604 マキシム・ドミトリエフスキー: MoDが自分のデータでTCを破り捨てることも判明するかもしれない 間違いないでしょう。しかし、MOは、過去に似たような状況を見つけたからといって、TCを再現することはありません。 Maxim Dmitrievsky 2021.01.03 00:42 #22605 fxsaber: それは間違いないですね。しかし、MOは、過去に似たような状況を見つけたからといって、TCを再現することはありません。 なぜそんなにユニークなのでしょうか? 歴史を学ぶと、MOは他の特性から同じ依存性を引き出します。 ある種のオーバーシュートで猫と犬を見つけたわけですが、他にも特徴があるんですね。例えば、猫のヒゲは長い 耳ではなくヒゲで判断するようになる...何が変わるのだろう まあ、個人差はありますけどね。理論的には問題ありません。 あ、そうか、これが記事にあったボックスプロットの例だ。おっしゃるような統計的なパターンを発見しました。その後、ランダムなサインでNSを訓練して、季節のパターンをトレードするようにしたら、もっとうまくいきました。これは理解のためです。 fxsaber 2021.01.03 01:03 #22606 マキシム・ドミトリエフスキー: その特徴は何でしょうか? MOでの類似性特性比較は行われないからです。トレーニング用のデータを用意するだけでは、TCが何を基準にしているのかが事前にわからないとダメなんです。 Maxim Dmitrievsky 2021.01.03 01:15 #22607 fxsaber: MOでの類似性キャラクタリゼーションの比較は行われません。TSが何を基準にしているのかがあらかじめわからないと、そのようなトレーニングをするためのデータがないだけです。 は動作しない場合があります。しかし、データがすでに準備されている場合、つまりパターンがある場合、あるヒルベルト空間において、クラスの点(例えば、買い用と売り用)はうまく分離可能であり、それ以外のことはありえない。MOはそのような特徴を拾って(狙って)マッチングさせます。なぜなら、正しい属性を知ることよりも、データを正しくマークアップして、猫と犬を区別することの方が重要だからです。 そのタイミングでの案件があれば、確認することができます。 fxsaber 2021.01.03 01:17 #22608 マキシム・ドミトリエフスキー: そのタイミングでの案件があれば、確認することができます。 その例は仮定の話である。 Maxim Dmitrievsky 2021.01.03 01:23 #22609 fxsaber: その例は仮定の話である。 仮説としては、 時系列が 同じなので、「類似性」は他の特徴で引き出されるから問題ない。 現実的には、手の湾曲など、困難が伴うかもしれない ) よく一般化されたクローズパターンが揃っているんですね。相関関係を通して一般化したのだから、モデルは履歴のスライディングウインドウを通して一般化することになる。類似のエンティティはグループ化され、バイ/セル/ノートレードのラベルが付けられます。 モデル内の類似したクラスターは、多次元空間でのみ、このように表示されます。各クラスタには、それぞれの売買ラベルがあります。とても簡単な作業です。あくまで一般論です。 mytarmailS 2021.01.03 07:16 #22610 Maxim Dmitrievsky: もし生成モデルの専門家がいれば、GMMモデルの共分散行列を揺さぶるというオプションを試してみることができます。つまり、系列の平均と分散は変えず、GMM共分散行列を変更します。出力は、異なるプロパティを持つ多くの例となるはずです。 どういうことですか? 行列のcovを振るだけで、ランダムになります. 何のためにシェイクするのか、最終的に何をカットすればいいのか、目的を知る必要があります。 1...225422552256225722582259226022612262226322642265226622672268...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
複雑なモデルは大きな利点ですが、それに到達するためには、すでに成功裏に費やされた2、3年の人生が必要なのです
生物多様性がすべてです。
生物多様性は私たちのすべてです。
簡単な例です。全特徴空間を 含む、異なるパラメータVS一回のトレーニングで数千回の実行。そして、同じように可視化し、余計なものを排除して分析します。
まあそれはそれとしてを、好きなように。このようなTSをリエンジニアリングできるMOはいないでしょう。過去に現在のTSと最も似ている部分を見ているのです。そして、統計的に何らかの方向への動きが優勢になった場合、そこにシグナルを出すのです。
その前に、類似のセグメントの検索を単純化するために、価格シリーズではなく、変換された価格シリーズで実行されている場合、例えばジグザグやバーがバイナリロジックに置き換えられます:アップ(0)/ダウン(1)。そうなると、MOのためのリエンジニアリングの作業はかなり複雑になってきます。
見逃した...こういうのを例のトレードでやってみるのも面白いですね。
は2点あります。
MOが自分のデータでTSをリッピングすることも判明するかもしれない
でも、ノートパソコンをアップグレードするまでは、ティックをいじる気にはなれませんね
MoDが自分のデータでTCを破り捨てることも判明するかもしれない
間違いないでしょう。しかし、MOは、過去に似たような状況を見つけたからといって、TCを再現することはありません。
それは間違いないですね。しかし、MOは、過去に似たような状況を見つけたからといって、TCを再現することはありません。
なぜそんなにユニークなのでしょうか? 歴史を学ぶと、MOは他の特性から同じ依存性を引き出します。
ある種のオーバーシュートで猫と犬を見つけたわけですが、他にも特徴があるんですね。例えば、猫のヒゲは長い
耳ではなくヒゲで判断するようになる...何が変わるのだろう
まあ、個人差はありますけどね。理論的には問題ありません。
あ、そうか、これが記事にあったボックスプロットの例だ。おっしゃるような統計的なパターンを発見しました。その後、ランダムなサインでNSを訓練して、季節のパターンをトレードするようにしたら、もっとうまくいきました。これは理解のためです。
その特徴は何でしょうか?
MOでの類似性キャラクタリゼーションの比較は行われません。TSが何を基準にしているのかがあらかじめわからないと、そのようなトレーニングをするためのデータがないだけです。
は動作しない場合があります。しかし、データがすでに準備されている場合、つまりパターンがある場合、あるヒルベルト空間において、クラスの点(例えば、買い用と売り用)はうまく分離可能であり、それ以外のことはありえない。MOはそのような特徴を拾って(狙って)マッチングさせます。なぜなら、正しい属性を知ることよりも、データを正しくマークアップして、猫と犬を区別することの方が重要だからです。
そのタイミングでの案件があれば、確認することができます。
そのタイミングでの案件があれば、確認することができます。
その例は仮定の話である。
その例は仮定の話である。
仮説としては、 時系列が 同じなので、「類似性」は他の特徴で引き出されるから問題ない。 現実的には、手の湾曲など、困難が伴うかもしれない )
よく一般化されたクローズパターンが揃っているんですね。相関関係を通して一般化したのだから、モデルは履歴のスライディングウインドウを通して一般化することになる。類似のエンティティはグループ化され、バイ/セル/ノートレードのラベルが付けられます。
モデル内の類似したクラスターは、多次元空間でのみ、このように表示されます。各クラスタには、それぞれの売買ラベルがあります。とても簡単な作業です。あくまで一般論です。
もし生成モデルの専門家がいれば、GMMモデルの共分散行列を揺さぶるというオプションを試してみることができます。つまり、系列の平均と分散は変えず、GMM共分散行列を変更します。出力は、異なるプロパティを持つ多くの例となるはずです。
どういうことですか?
行列のcovを振るだけで、ランダムになります.
何のためにシェイクするのか、最終的に何をカットすればいいのか、目的を知る必要があります。