トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 612

 
ユーリイ・アサウレンコ
彼は努力したのではなく、勉強したのです))。気に入っていただけたようで、何よりです。(自転車を再発明する必要はなく、すべて私たちの前に発明されているのです。

入力された予測変数は画像に変換され、その画像でネットワークが学習されるようです。

これです

 
本当に貴重なものです

http://www.valuesimplex.com/articles/JPM.pdf

良い資料です。数ヶ月前にgotayでこのリンクを見ました。MLそのものについてというより、彼らが使うデータについてです。サイトへのリンクが大量に集められていて、とても貴重な情報です。本当に貴重な資料です。

 
マキシム・ドミトリエフスキー

Wienerに乗り換えました。あの本はいつ終わるんだろう :) 彼も基本的に予測を立てようとしていた。

私も私が計画しているすべての本は、私は読むための時間を持っていないと10の人生のために、しかし、その後、科学文献を読んで "暴飲暴食 "への生理的動機がある間、正党から、別の手でそれを見ていることをぐずぐずしていた。脳は明らかに狂気の危険にさらされていないと真剣に、RANGEで答え、Excelで入れて、重要性の評価を入れて、ソート(定期的に)と読んでいないと、あなたが最も重要なを読むことを知って、量との詳細を気にしないトップ最もをお読みください。
 
エリブラリウス

試験区では、多くの場合と同様、誤差が50%目前まで来ています。しかし、少なくともAlglibの何十倍もの速さでカウントされるのです。ここで40〜100分のモデルの計算は、Alglib-eは、同じ構造を待っている日以上、待機していないと計算を無効にする場合。
でも、今、サイクルでモデルをピックアップしていたら、また時間がかかってしまう......。また、全体のプログラミングもしなければなりません。
一般的には、MOに自分で時間制限をかけないので、長い時間になります。

興味深い - だから私は掘る)

びっくりした。1時間以上カウントされるモデルってどんなの?

せいぜい1〜2分程度が目安です。

 

Bros、1-2分の最適化でFXのような複雑なマーケットに関連するモデルを得ようと思ったのはなぜ?

これは論理的におかしいと私は思います。結局、モデルの構築には、コストに換算できる計算資源が 必要なのです。つまり、すべてのモデルは、その制作に費やされた控除可能なリソースという形で価値を持っているのです。そして、今度は質問です。小銭のかかるモデルで儲けたいのか?小銭は稼げるけど、それ以上は無理かな...。IMHO

 

上記のリンクは

どう だろう。

http://www.valuesimplex.com/articles/JPM.pdf

そして、この本は、とても尊敬する銀行が執筆したもので、ここに写真があります。



なぜ、ここに掲載されている「モデルの不安定さ」について、私以外誰も議論していないのでしょうか?

 
サンサニッチ・フォメンコ

上記のリンクは

毒性

http://www.valuesimplex.com/articles/JPM.pdf

そして、この本は、とても尊敬する銀行が執筆したもので、ここに写真があります。



なぜ、ここに掲載されている「モデルの不安定さ」について、私以外誰も議論していないのでしょうか?

何ですか?
 
ミハイル・マルキュカイツ

兄弟、1-2分の最適化でFXのような複雑なマーケットに関連するモデルを得ようとしたのはどうしてですか?

これは論理的におかしいと私は思います。結局、モデルの構築には、コストに換算できる計算資源が 必要なのです。つまり、すべてのモデルは、その制作に費やされた控除可能なリソースという形で価値を持っているのです。そして、今度は質問です。小銭のかかるモデルで儲けたいのか?小銭は稼げるけど、それ以上は無理かな...。IMHO

いいえ。私が理解した限りでは、最適化ではなく、トレーニング時間の問題であった。最適化はもちろん20〜30分。
 
サンサニッチ・フォメンコ

トレーディングの場合、モデル最適化(TS)という考え方は非常に疑わしいと 思います。なぜなら、最適化はピークや谷を探すものであり、私たちはそれを必要としないからです。理想を言えば、できるだけ大きな平坦なプラトーが必要です。これらのプラトーには、1つの顕著な特性があるはずです。

これは、最適化についてです。

実際、ここでは、モデルパラメータが変化しても、かなり狭い(5%)信頼区間 内に収まる安定性の問題も加える必要がある。モデルパラメータの安定性は、モデルの性能があるプラトーにあるとき、モデルをテストしているときに突然非常に良い結果が得られた場合、それは最小限のポイントに到達したことを意味し、実際には決して起こらない不安定な状態になり、さらに、ストップアウトはこの最適ポイントの周辺に位置していると思われます。

PS.

ちなみに、テスターでは、このように色で高原を探すことができるようになっています。個人的には、テスターを仕上げの道具として使い、正方形の周りに同じ色の正方形があることを指すパラメータをとっています。これは、私が考える「プラトー」を端的に表現したものです。

Expert Advisors from the Marketでは、取引に適したパラメータが最適化機能でプラトーを形成しているのをよく見かけました。MAやRSIなどの係数がある場合、パラメータを少し変えただけでは、最終的な結果には影響しなかった。

しかし、それは理にかなっていて、そこにあるパラメータのほとんどは、インジケータの計算式に使われているので、少し変えただけで、同じ値段で計算された結果が少し変わるだけなのです。

機械学習では逆に、パラメータが雪崩のように学習全体に影響を及ぼし、わずかな変化でも全く違う結果になることがあります。例えば、隠れ層のニューロンの数。その数が増えると、使用する重みの数が増え、gpscpを使った重み初期化用の関数では、その値が微妙に異なる順番で設定され、異なる結果になるのです。
いくつかのパラメータを変更すると、最適化関数にプラトーが発生します。各パラメータについて、モデルの最終的な評価に対する影響を、スムーズまたは確率的に調べることができ、スムーズに影響するパラメータについては、さらに微分ベースのオプティマイザ(Rの関数 optim(method="L-BFGS-B") および optimize() )を用いて調べることができます。

 
サンサニッチ・フォメンコ

上記のリンクは

毒性

http://www.valuesimplex.com/articles/JPM.pdf

そして、この本は、とても尊敬する銀行が執筆したもので、ここに写真があります。



なぜ、ここに掲載されている「モデルの不安定さ」について、私以外誰も議論していないのでしょうか?

ここでは、学習データに対する誤差と、予測における誤差の話をしている。この絵の本質は、誤差を最小にするとオーバートレーニングになり、モデルの作成と調整の要点は、この誤差を新しいデータで最適な値に減らす(オーバートレーニングを避ける)ことにあります。

イラストが良い。