トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3305

 
Aleksey Nikolayev #:
少し前のフォーラムで誰かが効果の名前を与えた(私はまだそれを見つけていない)、そのためSBに近い系列は、周期を持っているように見える。この効果は、フーリエによってプロセスの周期性を "発見 "したときに、科学における恥ずべき瞬間の多くに関連付けられており、フォーラムでそれのためにラジオアマチュアは決して長生きしないでしょう)。

スケール不変性?

モアレ効果 :)

スケール不変性は、それはそのような方法で記述することができ、無線アマチュアの研究の対象にはならないようだ。ただ、フーリエを使わず、1時間ごとや1日ごとなど、異なるアクティビティを記述する市場期間が必要です。

 
Maxim Dmitrievsky #:

スケール不変性?

モアレ効果 :)

違う) Slutsky-Yule、投稿を 見つけました。他にも似たような効果があったと思うが、正確には覚えていない。少なくとも、現在では見かけの周期性に注意することが認められています。もちろん、地元のアマチュア無線家はこのようなことは気にしませんが)
 
Maxim Dmitrievsky #:

ニューラルネットワークのBP表現を適切に行う方法に関する良い論文。FFTはもちろん取り除くことができる。さらに異なるモデルの比較も。

根本的な違いは、前処理がネットワーク・アーキテクチャに組み込まれていることだ。しかし、別々に行うこともできる。

LSTMは期間間の変動を考慮しないため、バックグラウンドで煙に巻かれる。

ブースティングも、彼らのテストによれば、ランキングの最下位に近いところにいる。

ツールに関係なく、MOの圧倒的な数のアプリケーションは、教師と予測変数の間に「自然な」関係がある分野であると考えられる。例えば、天気予報:気温、湿度...。

一方、私たちはここに座り、鼻をほじりながら想像の予測因子を考え出し、なぜかそれを取引注文の予測に使いたがる。

だから、「自然な」予測因子が掲載された出版物は、私たちには興味がない。残念ながら。

 
Aleksey Vyazmikin #:

その逆は どうやって証明されるのか?

私の考えでは、同じニュースという時間的な制約がある。予想、悪化、好転の3つのサブサンプルに分け、文脈を考慮すれば、市場参加者の行動が似ていることに気づくだろう。

もう一つの選択肢は、商品の季節性である。

具体的にはどのようなものでしょうか?

 
СанСаныч Фоменко #:

ツールを問わず、MOの圧倒的な応用例は、教師と予測因子の間に「自然な」関係がある分野であると考えられている。例えば、天気予報:気温、湿度...

私たちはここに座って鼻をほじりながら、想像上の予測因子を考え出し、なぜかその予測因子に取引注文を予測させたいのです。

だから、「自然な」予測因子を使った出版物は、私たちには興味がない。残念だが。

まあ、これはモデルに形質を与えるという側面だけで、論理的に見える。その後に何をするかは、もちろん難解な問題である。

例えば、この方法を使えば、1つのサンプルに多くのストーリーを詰め込むことができる。
 
Aleksey Nikolayev #:
いいえ)スラツキー・ユラ、投稿を 見つけました。他にも似たような効果があったと思うが、正確には覚えていない。少なくとも、現在では見かけの周期性に注意することが認められています。もちろん、地元のラジオ・アマチュアはそんなことは気にしていませんが)

まあ、そうだろう。

投機的な周期性ではなく、見かけの周期性を持つ経済プロセスがある。例えば収穫だ。そのようなプロセスはたくさんある。周期性がパラメーターの1つであるモデルもある。

もうひとつは、現実に存在する周期性と、FXで隆盛を極めたフーリエの助けを借りて吸い出された周期性とを分離する必要があるということだ。10年ほど前は、無線技術者が不足することはなかった。数理モデルの非常に重要な特性は、その解釈可能性であり、モデルのパラメータや特性を現実と比較できることである。そして、変動する周期性を持つチャート上の明らかな波を見て、どこから来たのかわからないような需要示唆を発明し始めると、結果は同じになる。

 
Maxim Dmitrievsky #:

まあ、これは論理的に見えるサインをモデルに与えるという側面に過ぎない。その後にどうするかは、もちろん難解な問題だ。

例えば、この方法を使えば、1つのサンプルにより多くのストーリーを詰め込むことができる。

私たちの場合、ゴミが入ればゴミが出る。

 
フーリエが周期性だけの問題だと考えるのは、音楽がラップだけの問題だと考えるようなものだ...。

あなたはラジオ・アマチュアに苦笑しているのではなく、自分の無教養に苦笑しているのだ。
 
СанСаныч Фоменко #:

私たちの場合、ゴミが入ればゴミが出る。

ゴミを掘り起こす浮浪者のアルゴリズムが必要なのだ。

"土からデュークへ"、それは連載記事と呼べるかもしれない。

 

より注意深い学習が、特定のサンプルの一般化から暗記への移行をもたらすことは、ごく当たり前のことであり、直感的にも明らかであるように思われる。

私自身、、フレンドリーなフレンドリーなフレンドリー。私自身フレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリーフレンドリー。パラメータ数が固定されたモデルの場合はもっと複雑ですが、おそらく反復回数が増えるにつれてパラメータ空間が「より多く使われる」と言えるでしょう。

もっと簡単に言えば、選べる選択肢が増え、必要なものを選びやすくなるということです。例えば、SBの1000のバリアントから選択するとき、最もトレース可能なバリアントは、100のバリアントから選択するときよりもトレンディになります。

追記これについては