トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1004

 
ミハイル・クレストフ

以前は別の製品を購入していたが、特に問題はなかった。しかし、ここからが本番です。

売り手はどのように状況を判断しているのだろうか。すべてが計画通りに進んでいるのだろうか。

 
サンサニッチ・フォメンコ

おままごとをする人は罰せられるに決まっている、という正当なものです。ALWAYS.

むしろ、買うときに仕組みがわからないのに信用してしまうことのほうが問題なのでは......。基本的な信頼の問題は、子供の頃からこんにちは(良い子供時代) - 意見。

 
サンサニッチ・フォメンコ

お願い




誤差の計算式は、表のヘッダーに記載しています。最後の例について説明します。nnet: 204/(204+458) = 30,8%、すなわち、モデルは合計662個を生成し、そのうち204個は誤りでした。

結果は12通貨ペアでほぼ同じ、つまりモデルの性能はモデルや通貨ペアにほぼ依存しない。

この結果は、5000本のローソク足ファイルに対して500本のローソク足ウィンドウを実行しても、予測能力がほとんど変化しない予測器を慎重に使用したために達成されたものです。変化率は5%以内です。



PS.

テスターはまだ見せられない - 1000バー以上のファイルのテスターのアプリケーションで立ち往生。

そして、ターゲットとしているのは?ZZサイン?

 
Alexander_K2:

この分野を復活させたいという強い思いと、予測は静止したVR上でしか行えないということを考慮し、この分野を復活させました。

(1. Kolmogorov A. N. Interpolation andExtrapolationof stationaryrandomsequences.

2.ウィーナー N. 静止時 系列の外挿・補間・平滑化(Wien N.Extrapolation, interpolation and smoothing of stationary time series)

の質問をします。

実際には、CLOSE[i]-OPEN[i]の値は、インクリメントの合計にほかならない。

このような値の連続は、極限的には正規分布になるはず である。

さて、帰国者のシーケンス(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])は定常系列であるという意見が あるようですが、どうでしょうか?

NSの入力でそのようなことを試された方はいらっしゃいますか、そしてその結果はどうでしたか?


追伸:マックス、ドク、ミシャニャ、ワーロック、アリョーシャ...。このスレ誰に向けて投げてるんだ?А?

1) そうであってはならない。例えば、様々な限界分布を持つことができる。

2) もっともな間違いです。vertexの反例はすでにあげましたね。非定常性は、マーケットメーカーが大多数の トレーダーの「過剰」を排除した結果現れる「バグではなく、チップ」である。

 
エリブラリウス

ターゲットとしているものは何ですか?ZZサイン?

インクリメント

ZZは素晴らしいトレンド教師になり得ますが、この教師に対する予測変数は見つかりませんでした。
 
Alexander_K2:

そしてコルモゴロフは、一般に、B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])]に特に注意を向け、この関数がかなり確定的でなければ何も予測しないようにしたようですな。

NSの仕事に一定の条件をつけるのは意味があるのかも?

例えば、BPの不安定な部分を飛ばして、セカンドリターンやB(k)を探るとか?

ARIMAモデルも同様の条件である。
このモデルは学習させることができ、チャートから利益を得ることもできますが、ある条件や要件が満たされないと - とにかくこのモデルは取引することができないのです。Dickey-Fullerの定常性検定が記憶に残っています。
GARCHでは、予測される帰国者の分布も元のデータに近いことが確認された。
やりたいことの多くは、このモデルですでに実装されていると思います。

neuronkeyについてですが、時系列を 突っ込んで、最大の結果が出るように学習させて、利益を待つということはできません。これは「オーバーフィット」につながる。つまり、ニューロンは単に既存のデータを記憶するだけで、新しいデータに対して十分な働きをすることができないのだ。
すべてが正しく行われた場合、R2が0より少し高くなった時点で学習は早期に停止します。株式チャートでは、トレーニングデータと新しいデータの両方で安定した利益を示しますが、数ポイントを超えるスプレッドは、すべてをマイナスに変えてしまいます。より高い精度を得るためには、ディープネットと数週間の学習を行うか、自分で様々な指標を選び、時系列と一緒にニューロニックに送信する必要があります。

 
Alexander_K2 です。

そしてコルモゴロフは、一般に、B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])]に特に注意を向け、この関数がかなり確定的でなければ何も予測しないようにしたようですな。

NSの仕事に一定の条件をつけるのは意味があるのかも?

例えば、セカンドリターンやB(k)を探ってBPの不安定な部分をスキップする、とか?

いいえ、うまくいきません。

フィーチャエンジニアリングの市場には、フィンテックの相互接続という良いことが一つあります。似ているが少し違う楽器を作り、その間の分布を見ることができる。でも、1つのBPから機能を抽出するのは、みんな疲れるんですよ :)

 
SanSanych Fomenko:

増加

ZZは素晴らしいトレンド教師になり得ますが、この教師に対する予測因子は見つかりませんでした - すべてが約50%の誤差を与えています。

ZZはターゲットにするのが難しいツールで、自分をごまかさないように、特別な方法でサンプルを準備する必要があります。

50%前後」の精度はごく普通で、球状のデータを使えば53%以上で取引できます。一般的に、この精度はクソみたいな指標で、簡単に精度〜50%+-1%になり、予測された増分の市場との相関は5%以上(0.05)と巨大で、聖杯では ありませんが他の戦略でポートフォリオ取引するには十分なものです。非直線性に慣れてきたら、相関かR^2、またはloglossを使う。

 
マキシム・ドミトリエフスキー

そして、1つの BPから機能を抽出することに、みんなもううんざりしているんです :)

結局、2つのストリームを扱っていることになります。

1. 出来事の流れ - 新しい引用文の出現時間(その間隔)

2.この流れの中での価格シリーズそのもの。

今日か明日には、例えば、引用符の読み取りの時間を任意に変化させると、自己相関 関数が、1つの同じ移動観測時間窓で異なる振る舞いをすることを証明(または反証)してみようと思います。

どこをどうしたらいいんだろう?

А!私が言いたいのは、流れの「間引き」が大きな役割を担っているということです。おそらく......キーポイントになるのはアレシェンカの息子は嘘をつかない。でも、"過程 "である以上......。

 
Alexander_K2 です。

それでも、いわば2つの流れを扱っているわけです。

1. イベントストリーム - 新しい引用文の出現時間(その間隔)

2.この流れの中での価格シリーズそのもの。

今日か明日には、例えば、引用符の読み取りの時間を任意に変化させると、自己相関関数が、1つの同じ移動観測時間窓で異なる振る舞いをすることを証明(または反証)してみようと思います。

どこをどうしたらいいんだろう?

А!私が言いたいのは、流れの「間引き」が大きな役割を担っているということです。おそらく......キーポイントになるのはアレシェンカの息子は嘘をつかない。しかし、すべてが "進行中 "でありながら......。

つまり、彼はすでに何年も前から漏れていたことを認めていて、それを再生した結果、今はうまくいっていないわけだ

BPの変革に本当のパターンがあれば、今でもうまくいっているはずです。今は市場の効率がいいとか、「昔はすごいことをやっていた」という話は通用しない。

実は、どんなに戦っても、仮面を剥ぐ人はいないんです :)だから、アレシェンカは悪いことわざだ、新しいことわざが必要だ。

理由: