トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2786

 
Valeriy Yastremskiy #:

マルコフ過程では、その時点の値に依存することはない。

どういう意味かというと、遷移行列のどこにいて、そこから先に進むということです。

 
Valeriy Yastremskiy #:

つまり、要因が少なければプロセスはコントロールされるが、ある一定の数を超えると、要因の衝突や、要因を合計した確率的な結果が起こり始める。その上、要因にはつながりがあり、フィードバックもある。しかし、マルコフ過程にはそのようなつながりはない。

マルコフ過程は確率変数を記述しているのだから、つながりがあるわけがない(論理的にはない)。しかし、もし行列があるとすれば、その行列の中でつながりを見つけたり、記述したり、見失ったり、形成したりすることができるということになる...。イベントの影響下にある状態を記述することについて、私はこう考えている。同じ統計値でありながら、状態によって一歩前進する(そしてこの一歩が、各瞬間の統計的系列のダイナミクスを設定する)...ただ、マルコフ全体の定式化における「ランダム性」については、私も混乱しています(しかし、そのために統計とdim_reductionがあるのです)。

 
JeeyCi #:

それはランダム変数を記述している - どこにつながりがあるのか(論理的には何もない)...しかし、マトリックスがある以上、その中でつながりを見つける/記述する/見失う/形成することが可能だということだ...。イベントの影響下にある状態を記述することについて、私は...すべて同じ統計だが、状態によって一歩前進する(そしてこの一歩が、各瞬間の統計系列のダイナミクスを設定する)...ただ、マルコフ全体の定式化における "ランダム性 "には困惑しています(しかし、そのために統計とdim_reductionがあるのです)。

私はランダムプロセスの物理学的な理解を示しましたが、私には2つのバリエーションがあり、1つ目は市場において要因の数が確率的な結果を与える場合、2つ目は高頻度プロセスに対する低頻度プロセスの結果であり、プロセスは相互に関連していません。

そして哲学的には、関数や過程の過去の値との関連性がなければ、その過程はランダムになると理解している。しかし、現実の世界では通常そうではない。

市場において、長引く定常状態が、強い要因による何らかの慣性力の影響、あるいは強く長引く要因であると仮定すれば、ノイズの中で区別することが可能であり、それはマルコフ状態ではない。SBモデルと区別するというアプローチは極めて論理的である。しかし、それをどうするかというと、論理的には、非マルコフ状態があれば調べることができるし、違いがなければ調べる意味がない。)

 
Maxim Dmitrievsky #:

どういう意味かというと、トランジション・マトリックスのどこにいるかということだ。

それは明らかだが、現在の値と以前の値との間に関連性がないため、ランダムなプロセスである)))))。そう、行列の中に値があるのだ))))))

GSCは、この関係をほぼゼロに最小化するという原理に基づいて構築されている))。

 

ウラジミール・ペレヴェンコの 正規化の方法は奇妙でしかない-log2(x +1) はまだ理解できる、

しかし、このような獣の出現 -sin(2*pi*x) を介して非対称性を取り除く - は、それが何をするのかよくわからない - 論理的には、いくつかの循環成分を追加し、問題は、なぜそのような成分なのか?(周期を取り除くとノイズが残る)...

一般的にtanh(x) は、系列を圧縮するためのニューラルネットワーク処理の模倣のように見える...それとも単なる行のワーピング? - 周期性がなくなるとは思えないし、どっちなんだろう...。

とにかく、もちろん、時系列=トレンド+サイクル+ノイズ であることは明らかだ。

...しかし、彼はこのような変換で周期性を取り除こうとしているのかもしれない(そして、sin(2*pi*x)がどのように普遍的な方法であるかはわからない?符号因子そのものに波長を組み込むことによって),正規分布を達成するために,すなわち,符号の構成に速度や加速度を入れるために......? しかし,それでもなお,sinを使った操作は,符号値に応じてスケーリングされた振幅のもとでの系列の不当な歪みであるように思われる - 統計処理でそのようなものに出会ったことがない.......なぜcosではないのか,なぜtanhではないのか?-- カーブを描く方法が違うだけ?

著者はこの特殊な三角法の本質を説明できるかもしれない(対数によって歪み分布を除去する目的はすでに明らかである)。(符号の変化を加速さ せるのか?- むしろ、時々それを滑らかにするだけでも)


Renat Akhtyamov #:

あなたはベクトルを与えられ、 論文を 書き、小物のように扱われた...。

このような変換をどの程度真剣に行うべきか/行えるのか、またその理由を誰か書いてくれないだろうか?(logで非対称性を取り除きたいという願望を除けば、lnが最も一般的だと思う)。

 
JeeyCi #:

ウラジミール・ペレヴェンコは 、正規性に変換する奇妙な方法をいくつか持っている -log2(x +1) はまだ理解しようとすることができる、

しかし、このような獣の出現 -sin(2*pi*x) を介して非対称性を取り除く - は、それが何をするのかよくわからない - 論理的には、それはいくつかの周期的な成分を追加し、問題は、なぜそのような成分なのか、またはそれを削除するのですか?(サイクルを取り除くとノイズが残る)......。

一般的にtanh(x) は、系列を圧縮するためのニューラルネットワーク処理の模倣のように見える...。それとも単なる行のワーピング? - サイクルを除去する可能性は低いし、どちらかはっきりしない。

いずれにせよ、時系列=トレンド+サイクル+ノイズ であることは明らかだ。

...しかし、彼はこのような変換で周期性を取り除こうとしているのかもしれない(そして、sin(2*pi*x)がどのように普遍的な方法であるかはわからない?符号因子そのものに波長を組み込むことによって),正規分布を達成するために,すなわち,符号の構成に速度や加速度を入れるために......? しかし,それでもなお,sinを使った操作は,符号値に応じてスケーリングされた振幅のもとでの系列の不当な歪みであるように思われる - 統計処理でそのようなものに出会ったことがない.......なぜcosではないのか,なぜtanhではないのか?-- 何のために?

著者はこの特殊な三角法の本質を説明できるかもしれない(対数によって歪み分布を除去する目的はすでに明らかである)。(符号の変化を加速さ せるのか?- むしろ、時々それを滑らかにするだけでも)


誰か、このような変換をどの程度真剣に行うべきか/行えるのか、またその理由を書いてください。(logで非対称性を取り除こうとするのは別として、lnが最も一般的だと思う)。

私もそのような変換を理解したことはないが、おそらく、残りの変換の中から最適なものを選んでいるだけだろう。そして、その選択に論理性はなく、たいていはテストに基づいている。

UHFのフィルターやアンテナの形状は、元々計算されていません。はい、そして、実際の計算は、ファイル)))))で最終決定されました。

 
Valeriy Yastremskiy #:

私もそのようなコンバージョンは理解できないが、たいていの場合、ピッカーの意見で残りの中からベストなコンバージョンを選んでいるだけだろう。そして、その選択にはロジックはなく、たいていはテストに基づいている。

UHFのフィルターやアンテナの形状は、元々計算されていません。はい、そして、実際の計算は、ファイル)))))で最終決定されました。

変換前と変換後のサンプルのヒストグラムを単純に比較することができます。最終的なものが目標とする形(例えば正規分布や一様分布)に近ければ、変換はかなり適しています)。ヒストグラムを描く代わりに,目標への適合性の検定(それぞれ正規性または一様性の検定)を考えることができる。

皿は放物線状になりませんか?式によれば)

 
JeeyCi #:

ウラジミール・ペレヴェンコは 、正規性に変換する奇妙な方法をいくつか持っている -log2(x +1) はまだ理解しようとすることができる、

しかし、このような獣の出現 -sin(2*pi*x) を介して非対称性を取り除く - は、それが何をするのかよくわからない - 論理的には、それはいくつかの周期的な成分を追加し、問題は、なぜそのような成分なのか、またはそれを削除するのですか?(サイクルを取り除くとノイズが残る)......。

一般的にtanh(x) は、系列を圧縮するためのニューラルネットワーク処理の模倣のように見える...。それとも単なる行のワーピング? - サイクルを除去する可能性は低いし、どちらかはっきりしない。

いずれにせよ、時系列=トレンド+サイクル+ノイズ であることは明らかだ。

...しかし、彼はこのような変換で周期性を取り除こうとしているのかもしれない(そして、sin(2*pi*x)がどのように普遍的な方法であるかはわからない?符号因子そのものに波長を組み込むことによって),正規分布を達成するために,すなわち,符号の構成に速度や加速度を入れるために......? しかし,それでもなお,sinを使った操作は,符号値に応じてスケーリングされた振幅のもとでの系列の不当な歪みであるように思われる - 統計処理でそのようなものに出会ったことがない.......なぜcosではないのか,なぜtanhではないのか?-- 何のために?

著者はこの特殊な三角法の本質を説明できるかもしれない(対数によって歪み分布を除去する目的はすでに明らかである)。(符号の変化を加速さ せるのか?- むしろ、時々それを滑らかにするだけでも)


誰か、このような変換をどの程度真剣に行うべきか/行えるのか、またその理由を書いてください。(logで非対称性を取り除こうとするのは別として、結局のところ普通はlnだと思う)。

三角関数の推論のレベルにいる限り、あるいはこのレベルの他の何かにいる限り、1つの理由のために正当化することはできません - そのような正当化の目的は宣言されておらず、目的を達成するための基準が不明であるため、正当化を行うことは不可能です。


なぜなら、そのような正当化の目的は宣言されておらず、目的を達成するための基準も不明だからである。そして、MOにおける目的はただ一つ、フィッティング・エラーを減らすこと、つまり機械学習モデルの予測誤差を減らすことである。そして、予測誤差は将来あまり変化してはならないという制約の下にある。


この目標を達成するための主な障害は、金融系列の非定常性である。

時系列=トレンド+サイクル+ノイズという 式は 正確では ありません。 100以上あるGARCHタイプのモデルでは、より正確で非常によくできていますが、最終的な形で問題を解決しているものはありません。

ゴールとゴールを達成するための基準を特定すれば、非定常性を扱う方法はまったく重要ではなく、重要なのは結果なのです。いずれにせよ、初期の非定常系列をより定常性に近づけることができればできるほど、MOモデルの予測誤差が小さくなり、最も重要なことは、この誤差の変動が小さくなることは明らかです。

ウラジーミル・ペレヴェンコは このことをよく理解しているが、彼の記事は実用的というよりは教育的である。そして、問題の選択とその解決のためのツールはすべて、予測誤差を減らすという目標に従属している。

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Профиль трейдера
 

アレクセイ・ヴャズミキンが コメントで著者にそのような 質問を した。)

 

局所決定木のアイデアが浮かんだ。これはKNNや局所回帰の類似のようなものである(非定常性にも適している可能性がある)。このアイデアは、注目するポイントを含むボックス(その中に少なくとも与えられたK個のポイントまで)だけをボックスに分割し、残りのボックスは気にしないというものです。クラス間の境界がシャープで、ポイントがそのような境界に近い場合、KNNや局所回帰よりもよいかもしれない。

このアプローチは意味が ある だろうか?