トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2536

 
Aleksey Nikolayev#:

ある評判の良い科学者は、価格は必然的に対数的でなければならないと書き、すべての理論家は盲目的にそれを続けている。

ジョン・テューキーか ボックス&コックスか?

 
transcendreamer#:

ジョン・テューキーか ボックス&コックスか?

おそらくユージン・ファマが論文で書いたのだろうが、定かではない。

 
Renat Akhtyamov#:

以前もここにあったような気がします。

まあ、フラットとトレンドの問題はまた繰り広げられるだろうが


...........

その方法は次の通りです。

1)何らかのモデル(線形回帰など)がある場合

2) 確信の持てないある種の観測結果がある。

次に、ランダムなノイズを作り、それを一連の観測データと組み合わせ、何度か繰り返す。

そして、異なる結果セットでのモデルの挙動を比較し、いくつかの結論を導き出す。

オプションで、最も安定した挙動を優先的に選択することも可能です。

これは魔法の杖ではなく、解析とわずかな改良のためのツールに過ぎず、間違ったモデルを正しくするものではありません。

 
LenaTrap#:

...........

その方法は次の通りです。

1)何らかのモデル(線形回帰など)がある場合

2)確信の持てない観察結果

次に、ランダムなノイズを作り、それを一連の観測データと組み合わせ、何度か繰り返す。

そして、異なる結果セットでのモデルの挙動を比較し、いくつかの結論を導き出す。

オプションで、最も安定した挙動を優先的に選択することも可能です。

これは魔法の杖ではなく、あくまで解析とわずかな改良のためのツールであり、間違ったモデルを正しいものに変えるものではありません。

はっきりしないんです。決定論的な系列があり、それを100%の精度で記述するモデルがある。ノイズを加えても、モデルの精度は52%です。この行為に何の意味があるのでしょうか?
 
Dmytryi Nazarchuk#:
不明です。決定論的な系列があり、それを100%の精度で記述するモデルがある。ノイズを加えた場合のモデル記述の精度は52%です。この行為にはどのような意味があるのでしょうか。

モールス信号やコミュニケーターでは、そこから生まれる。

 
LenaTrap#:

...........

その方法は次の通りです。

1)何らかのモデル(線形回帰など)がある場合

2)確信の持てない観察結果

次に、ランダムなノイズを作り、それを一連の観測データと組み合わせ、何度か繰り返す。

そして、異なる結果セットでのモデルの挙動を比較し、いくつかの結論を導き出す。

オプションで、最も安定した挙動を優先的に選択することも可能です。

これは魔法の杖ではなく、単に分析とわずかな改良のためのツールであり、間違ったモデルを正しいものに変えるものではありません。

ある特定の状況でのみ、それが機能しない状況が設定されています。唯一の希望は、必ずしもそうではない論理によって、うまくいかない状況が少なくなることです。

 
Dmytryi Nazarchuk#:
不明です。決定論的な系列があり、それを100%の精度で記述するモデルがある。ノイズを加えた場合のモデル記述の精度は52%です。この行為にはどのような意味があるのでしょうか。

このシリーズで正確な値が得られるのであれば、意味がない。近似値しか得られない場合は、モデルの結果が、元の(理想的な)系列の不正確な測定による誤差であるかどうかを確認すればよいのですから、ポイントは簡単です。正確な数式や定義があるのですが、私には理解できません。

 
LenaTrap#:

このシリーズで正確な値が得られるのであれば、意味がない。近似値しか得られないのであれば、そのモデルの結果が、元の(理想的な)系列の不正確な測定による誤差であるかどうかを確認すればよいのです。正確な数式や定義があるのですが、私には理解できません。

ポイントは、探索したものを分離する信頼性であって、値の正確さではない。希望があり、10%混ぜる、99を選ぶ、50を混ぜる、80を選ぶ、20を選ぶ...。というのは、すべては検索するデータを選択するアルゴリズムに依存する。

もちろんノイズの質にもよりますが、信号が分かればどんな信号でもベールに包むことができます。
 
LenaTrap#:

このシリーズで正確な値が得られるのであれば、意味がない。近似値しか得られないのであれば、そのモデルの結果が、元の(理想的な)系列の不正確な測定による誤差であるかどうかを確認すればよいのです。そのための正確な数式や定義があるのですが、私には理解できません。

回帰のためではない
 
elibrarius#:
予測子と出力をランダムに記入しました。学習ができないことを確認するためです。50/50%であることを確認した。
相場と、ターゲットをTP=SLにすると、50/50%にもなります。

しかし、ターゲットがランダムに設定されない場合はどうでしょうか。

私のサンプルは通常3つに分かれているので、それらを1つのサンプルに統合し、100本のツリーでモデルを学習させ、どの予測変数が使われていないかをチェックしてブロックする、という実験をしました。そして,2つ目のサンプルでオーバートレーニングに歯止めをかけて通常通りモデルを学習させ,3つ目のサンプルで予測子を除外せずに学習させたときの変量と結果を比較しました.選択された予測変数の方が結果が良いことが判明しました。ここで、"異なる予測変数の選択は、区間でのサンプルの違いによるもので、サンプル全体で学習することにより、時間が経過しても有意性が失われない予測変数を自動的に選択する "と考えてこの効果を結論づけるのは難しいと考えています。しかし、これはサンプルが大きければ大きいほど、長期的な視野でのモデルの頑健性が高まるということなのだろうか。このような方法で予測因子を選択して学習することができるのか、つまり過学習を助長しないか?一般に、CatBoostの創始者からは、モデルのハイパーパラメータを見つけることが必要で、そのモデルを仕事に応用するためには、アクセス可能なすべてのサンプルで学習することが必要であるとの勧告を聞きました。


elibrarius#:
誤差47.5%の変種があり、かっこよく見えたのですが、MTテスターに繋いでみると成長ではなく落下になってしまいました。手数料を考慮していなかったことが判明し、その2%のアドバンテージを食いつぶしてしまった。

ここで、手数料の計上方法を考えてみると...。
スプレッドに4ptを加算したかった。でも、それはおかしい。TPやSLは、テスターで表示されるはずのそのバーではなく、オーバーステートされたAskで発動することがあるので、このため、その後のトレードの順番が変わってしまうことがあります。
しかし、テスターではバー上の最小スプレッドを使用しているため、現実とは異なる結果となります。

まだベストな方法は見つかっていません。

もし相場が100ポイントAの方向に動いたとしたら、スプレッド依存性は全く存在しないはずで、経済的な結果はスプレッドにのみ依存することになり、トレーニングでは考慮すべきではないと思います。モデルが確認した後、マーケットエントリーを行い、それをマークアップする際に、事実上スプレッドを広げる可能性があるとします - つまり、利益が指定したポイント数より少ない場合は、エントリーを行わないということです。また、モデル分析では、純粋にサンプリングによって結果を計算する場合、スプレッドも考慮します。

Moexの場合は、価格があったところでストップがかかるので、もちろんその方が楽なんですけどね。

理由: