トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 429

 
マキシム・ドミトリエフスキー

(c)を入れ忘れた :))
フィドラー不要(c)。
先日、こんな結論に達しました。合理的な私の言葉を信じてください。M error=0.1 (not TC)。
携帯電話からだと書きにくいです)。
Psはご覧ください。S.ヘイキン、ビショップ。
 
ウラジミール・ペレヴェンコ

いいえ、そうではありません。以下はその説明です(ちょっと書ききれない記事より :(

はじめに

現在では、どちらのアプローチも積極的に実用化されています。2つのアプローチの比較実験[ ]では、一方が他方に対して大きな優位性を持つことは明らかにされていないが、それでも1つだけ言えることがある。事前学習を行ったニューラルネットワークは、ほぼ同等の結果を得ながら、学習に必要なサンプル数と計算機資源が 大幅に削減される。分野によっては、これは非常に重要なアドバンテージとなります。

グッドラック

まあ、それは解決済みなんだけどね :)はい、特に素晴らしいのは学習のスピードです(加えてモデルの品質)、私は後であなたの記事からの境界線で実験します、私が私のアイデアを実現し終えたとき、トピックは非常に興味深く、有益な時があります、例えば、私のささやかな昨日のモデルのように :)(まだテスト中なのでロットは小さいです)。

今のところ過食が激しく、長い間隔では再トレーニングしないと動かないが、2-3ヶ月の間隔ではほぼ完璧にトレーニング(フィット?)し、トレーニング後1週間で動く確率がちゃんとあるので、毎週再トレーニングしているだけである。正直、テスターでMOに触れるまで、こんなカーブ(ティックではなく終値で)は初めてでした。ほぼ全ての通貨ペア、指数で効率よく動くので(為替は約定履歴が少なく、のり付けが面倒なのでまだ試していません)、低リスクのポートフォリオが組めるようになりました。

今、主な課題は、非線形の相互関係を加えることによってテストサンプルでの安定性を高めることで、これは自明ではないが、ある程度は解決できる(と思われる)。


 
ユーリイ・アサウレンコ
ヴァイオリニストは不要(C)。
先日、こんな結論に達しました。合理的なものを、私の言葉を信じてください。Mエラー=0.1(TCではない)
携帯電話からだと書きにくいです)。
Psはご覧ください。S.ヘイキン、ビショップ。

後で読む、覚えておく

 
マキシム・ドミトリエフスキー

よくぞ解決してくれました :)はい、特に素晴らしいのは学習の速度です(プラスモデルの品質)、私は彼らのアイデアを実装し終えたときにあなたの記事から境界線で後で実験する、非常に興味深いトピックと時折有益、例えば、私のささやかなモデルで昨日として:)(まだテスト中なのでロットは小さいです)。

今のところ餌をやりすぎて、長い間隔では再トレーニングしないと動かないが、2-3ヶ月の間隔ではほぼ完璧にトレーニング(フィット?)し、トレーニング後1週間で動く確率が高いので、毎週再トレーニングしているだけです。正直、テスターでMOに触れるまで、こんなカーブ(ティックではなく終値で)は初めてでした。しかも、ほとんどの通貨ペアや指数(株式は約定履歴が少ないのでまだ試していません)で問題なく使える、つまりローリスクのポートフォリオが組めるのです。

現在の主な課題は、非線形の相互関係を追加してテストサンプルの安定性を高めることで、自明ではないものの、ある程度は解決可能です(と私は見ています)。


最適化すると、非常に良い結果が得られることが多いのですが...。しかし、それはそれほど重要なことではありません。
TrendLinearRegでReshetovのRNNを実機で動かしたようですが、やはり効果があるのでしょうか、それともアイデアが失敗したのでしょうか?
 
サンサニッチ・フォメンコ

最近、以前から親しんでいたGARCHに戻りました。機械学習に魅了されて数年、私が非常に驚いたのは、為替を含む金融時系列へのGARCHの適用に関する膨大な数の出版物です。


ディープネットワークにも同じようなものがあるのでしょうか?

リグレッションはやらない。このあたりは、新しいものを追いかけているところです。最近の開発で気に入っているのは、プロフェットパッケージです。

分類のためのディープネット。

グッドラック

 
エリブラリウス
最適化は、しばしば非常に良い結果をもたらしますが...。が、それほど重要なことではありません。
ReshetovのRNNをTrendLinearRegでリアルに動かしてみたようですが、やはり効果があるのか、それともアイディアがうまくいかなかったのか?

予測式を変更し、最初のスローにしたかった...その後、私は何かではない、そのような牛は、今のところ自分自身を必要とする)と思う。ReshetovのMOの骨組みは残った、他のすべては、MLPを追加 - それは好きではなかった、それはカウントに長い時間がかかり、今私はランドを追加します。フォレスト+プロセスであるいくつかのより多くのアイデア...。すなわち、一般的に私は委員会が欲しいか、何が1つのnsは他を教育するだろう、何かとてもオリジナルが常に欲しい

しかし、Reg.角度は、入力と出力の両方で、対数チャートでもあれば、それだけで良い予測因子となります。

 
マキシム・ドミトリエフスキー
プレディクターを変更し、最初はおろそうと思ったのですが...そうではなく、今のところ自分にはこのような牛が必要なのです)。レシェトフのMOフレームはそのままに、それ以外をすべて作り直し、MLPを追加しました - あまり好きではないのですが、計算に時間がかかりすぎます。
レシェトフネットワークにはあまり入力がない...。3-6、同じ数字をMLPに供給すると、MLPも素早くカウントするはずです。
 
エリブラリウス
レシェトフ・グリッドの入力はあまり多くない・・・。3-6、同じ量をMLPに供給すると、カウントも早くなるはずです。


しかしMLPの場合はOutputsに問題があります。Reshetovのものはオシレーターの極値に基づいて確率を設定しているのに対し、つまりマーケットを正しくデトレンドし、いくつかの変換を行って定常系列としてフィードすれば十分なのですが、MLPの場合はOutputsに問題があります。

PLUSこのalglibovyのMLpは毎回異なる同じセットで訓練し、1時間は、2回目を示した実行 - 別、およびいくつかの反復(5-7)のサイクルでそう、私は知らないこれで作業する方法を、異なる値を生成します。そのため、入力数を増やして(最大15個)、少しずつ学習するようになったのです。ソフトマックスを使用していました。私もアンサンブルに挑戦してみましたが、全然時間がかかりました。そして結局、azureの機械学習での実験から、RFはほとんどすべての単純なMOモデルよりも常に誤差が少なく、一方MLPは原則として最大の誤差を与えることが明らかになりました...。私が調理法を知らないだけかもしれませんが、実際にはもっと悪く、遅くなるようで、その確認がサンサンチさんのこちらで 見つかりました

つまり、単純な分類器から選ぶと、まずRF、次にDNN、そして最後にRNNとLSTMが来るということです。シンプルからコンプレックスへ :)

 
マキシム・ドミトリエフスキー

しかし、REG.アングルは、対数グラフでもあれば、入力と出力としてそれ自体で良い...良い予測因子である

Reg.角度と対数プロットとは何ですか?

 
elibrarius:

回帰角と対数表とは?

TrendLineregrは、指定された数のバーに対する回帰線の傾きの角度を表示します - これは予測として、またターゲットとしても、ジグザグの代わりとなる良い指標です。つまり、引用のノイズ成分を実際に取り除いてしまうのです(私の意見です)。

また、ロゴチャートは、きれいなチャートではなく、価格の対数としてとらえられます

そして、一般的に同じGarch Figarachと有馬は回帰分析 であり、これ以上面白いものはまだ発明されていないので、人々がそれを使うなら、彼らもそれを一方的に使うべきだということです。

理由: