トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1555

 
アレクセイ・ヴャジミキン

ミキシングのアイデアは面白いのですが、ある重要なポイントから別のポイントへの値動きをランダムにする必要があるように思います。そして、ブロック自体もZZで作れば、本当に市場らしくなります。

そして、その極値に至るパターンをモデルでとらえることになる。そして、新しいデータはナンセンスであることが判明するかもしれません。

私のモデルは、値動きの形に縛られることなく、ボラティリティのクラスタリングのような小さなパターンを学習することで、マーケットとSBを区別しているのです。つまり、(私のバージョンでは)純粋な計量経済学 なのです。

最適化をしていて、私のノートパソコンではもう処理できないことに気づきました。まともなハードを買わなきゃな。しかし、これでは最適とは言えないコードに追い込まれてしまうので、どうするか考えてみます。

第二の選択肢は、catbustを捨てて、mqlで森の中をすべて書き換えることです。しかし、pythonで調査する方が便利です
 
マキシム・ドミトリエフスキー

であれば、モデルはこれらの極端な現象を引き起こすパターンを捉えることができる。そして、新しいデータでは、それがナンセンスであることが判明するかもしれません。

私のモデルは、値動きの形に縛られることなく、ボラティリティのクラスタリングのような小さなパターンを学習することで、マーケットとSBを区別しているのです。つまり、(私のバージョンでは)純粋な計量経済学 なのです。

最適化をしていて、私のノートパソコンではもう処理できないことに気づきました。まともなハードを買わなきゃな。しかし、それは私に最適でないコードを押し付けることになるので、何ができるかを考えてみることにします。

私の考えでは、クラスターをZZでスライスするだけでも生産的で、特に市場の平均的な構築ルールを加えると、生産性が上がります。要は、1つの地点にはさまざまな経路でたどり着くことができ、サンプルはそのような経路のうちのごく一部にのみ注目し、そうすることでサンプルがバランスよくなるのです。おそらく、ターゲットが違うので、ある研究に対して何が最適なのか、考え方が違うのでしょう。同じ大きさのルールのクラスタしかないので、予測器が2つのクラスタの接合部でデータを取るとSBが発生するだけなのですが......。

そして、鉄。そうです、空想の飛行を早めてくれるのなら、それを使ってください

 
アレクセイ・ヴャジミキン

私見では、クラスタをZZでスライスするのは生産的であり、特に市場からの平均的な構築ルールを加えると、より効果的だと思います。 ポイントは、1つの地点にはさまざまな経路で到達することができ、サンプルはそのような経路のうちの小さな集合にのみ焦点を当てるので、サンプルがバランス良くなることです。おそらく、ターゲットが違うので、ある研究に対して何が最適なのか、考え方が違うのでしょう。 同じ大きさのルールのクラスタしかないので、予測器が2つのクラスタの接合部でデータを取るとSBが発生するだけなのですが......。

そして、鉄。そうです、空想の飛行が速くなるのなら、それを使ってください。

ああ、そうですか、異なるサイズのクラスタも作れますね、必ずしも節約になるとは限りませんが

ミキシングという考え方は欠陥があると思いますが、面白いですね。

 
マキシム・ドミトリエフスキー

あ、そういや、クラスターも大小様々なものが作られますね、必ずしも節約になるとは限りませんが

ミキシングという考え方は欠陥があると思いますが、面白いですね。

ランダムサンプリングやシャッフリングは(私の理解が正しければ)、オーバーシュートを減らす方法の一つです。回帰でどれだけ役に立つかは分かりませんが、分類では問題なく使えます。
今、機能を近づけるアルゴリズムと、それを妨げるアルゴリズムとが、ある種の対決をしているように思います。学習の過程では、何らかの抵抗が発生します。人生を面白くしよう :-)
抵抗がない場合は、学習が目標に近づきすぎているため、過学習閾値をオーバーシュートする可能性が非常に高い。
抵抗があっても、弱い抵抗であれば効果は同じです。
抵抗が強すぎると過少学習が起こり、モデルは汎化領域がある信頼区間に 到達できず、学習自体の結果が悪くなる。また、良くない。
結論1、学習に対する抵抗感。あるいは、過学習を減らすことを目的とした方法は、基本的なアルゴリズムとバランスをとって、信頼区間にうらやましいほどの一貫性を持ったフクントをもたらすべきであるが、決してそれを超えないか、非常に稀にしか行わない。
 
ミハイル・マルキュカイツ
ランダムサンプリングやミキシング(私の理解が正しければ)は、オーバートレーニングを減らすための1つの方法です。回帰で使えるかどうかは分かりませんが、分類では問題なく使えます。
今、機能を近づけるアルゴリズムと、それを妨げるアルゴリズムとが、ある種の対決をしているように思います。学習の過程では、何らかの抵抗が生じる。人生が蜜に見えないように :-)
抵抗がない場合は、学習が目標に近づきすぎているため、過学習閾値をオーバーシュートする可能性が非常に高い。
抵抗があっても、それが弱ければ効果は同じです。
抵抗が強すぎると過少学習が起こり、モデルは汎化領域がある信頼区間に 到達できず、学習自体の結果が悪くなる。また、良くない。
結論1、学習に対する抵抗感。あるいは、過学習を減らすための方法は、基本アルゴリズムとのバランスをとる必要があり、フクニョンがうらやましいほどの一貫性をもって信頼区間に到達するが、決してそれを飛び越えないように、あるいは非常に稀にしか飛び越えないようにする。

それはそうなんですが、リターンに規則性がないとなると、死屍累々です)

 
アレクセイ・ヴャジミキン

ミキシングのアイデアは面白いのですが、ある重要なポイントから別のポイントへの値動きをランダムにする必要があるように思います。そして、ブロック自体もZZを使って作れば、市場らしくなります。

ZZや追加のインジケータは使用しないでください。複数の時間枠のOHLCのみ(時間枠は4~6倍違うはず)。例えば、1-5-30-H3...最大1ヶ月のタイムフレーム。自分で選択)、そしておそらく早期警告のための刻み目を増やした。

最大と最小の価格別に畳み込み構造で。by OHLC - 再帰性構造。などなど、すべて中古価格です。 これらの信号はさらに、例えばフルメッシュネットワークに供給されます。

また、フルメッシュネットワークの入力の1つに、リカレンスネットワークを通過した刻みを入力します。

入金増加のスピードを最適化する。その結果、メッシュは自らロット量を決定し、始値と終値を選択する必要があります。こんな感じ。

 
エウゲニ・ノイモイン

ZZや追加のインジケータは全く使用しないでください。複数のtfからOHLCのみ(tfは4~6倍程度違うはず。 例えば、1-5-30-H3...最大1ヶ月のタイムフレーム。自分で選択)、そしておそらく早期警告のための刻み目を増やした。

最大と最小の価格別に畳み込み構造で。by OHLC - 再帰性構造。などなど、すべて中古価格です。これらの信号はさらに、例えばフルメッシュネットワークに供給されます。

また、リカレントネットワークを通過した刻みをフルメッシュネットワークの入力の1つに入力します。

入金増加のスピードを最適化する。その結果、メッシュは自らロット量を決定し、始値と終値を選択する必要があります。こんな感じ。

中間ネットワークのターゲット機能として、どのようなものを提案されますか?つまり、何をするために訓練すべきなのか?
 
エウゲニ・ノイモイン

ZZや追加のインジケータは全く使用しないでください。複数のtfからOHLCのみ(tfは4~6倍程度違うはず。 例えば、1-5-30-H3...最大1ヶ月のタイムフレーム。自分で選択)、そしておそらく早期警告のための刻み目を増やした。

最大と最小の価格別に畳み込み構造で。by OHLC - 再帰性構造。などなど、すべて中古価格です。これらの信号はさらに、例えばフルメッシュネットワークに供給されます。

また、フルメッシュネットワークの入力の1つに、リカレンスネットワークを通過した刻みを入力します。

入金増加のスピードを最適化する。その結果、メッシュは自らロット量を決定し、始値と終値を選択する必要があります。こんな感じ。

そして、その上にリボンがついている )

 
エリブラリウス
中間ネットのターゲット機能として、どのようなものを提案されますか?つまり、何を教えればいいのか?

預金の増加率について。これがターゲット機能です。高域の畳み込みと低域の畳み込みは、ZZのどこかのアナロジーです。波動フラクタルが見えてくる。OHLC-ローソク足の組み合わせ-ローソク足のパターン(フラクタル)によるリカレンス構造をここでキャッチします。

異なるTFのデータに基づくグリッドは、異なるTF上のフラクタルが特定される。預け入れ増加速度の目標関数は、異なるフォールドに現れるフラクタルがどの程度まで考慮されるべきかを定義する。

マキシム・ドミトリエフスキー

そして、その上にリボン )

それはアマチュア向けです。


 
エウゲニ・ノイモイン

預金の増加率からこれがターゲット機能です。

デポジットは何からできているのですか?買い/売り/待ちのコマンドから。

これらのコマンドは、最終的にNSがトレーニングすることになります。そして、それらを予測する。
中間ネットワークは何を基準に学習させるべきか?ジグザグ? ネットワークを学習させるためには、答えを示す必要がある。学習信号として、どのようなジグザグアルゴリズムを、どのようなパラメータで使用することを提案されていますか?

理由: