トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 472

 
マキシム・ドミトリエフスキー


つまり、mt5のすべてがまだテストされていないのです :)

それがわからないんです。( MTで既にあるものになぜ挑戦するのか?

TCのコンセプトがあれば、ツールキットを手に取る。MTの中にあって、他のシステムとうまく相互作用するものがあれば、それを使う。相互作用が悪い - 外部ソフトを使用しています。

既存のMTの機能を使うためだけに情報をやり取りするのは、まったくもってラゾーナスらしくない。

 
ユーリイ・アサウレンコ

それがわからないんです。( MTで既にあるものになぜ挑戦するのか?

TCのコンセプトがあれば、ツールキットを手に取る。MTの中にあって、システムの他の部分とうまく相互作用するのであれば、それを使ってください。相互作用が悪い - 外部ソフトを使用しています。

既存のMTの機能を使うためだけに、情報をやり取りするのでは意味がない。

だから、最初から使えるコンセプトがあるわけではなく、すべてが思いつきで、道具は多ければ多いほどいいのです
 
マキシム・ドミトリエフスキー
だから、最初からコンセプトがあるわけではなく、すべては直感で、ツールキットは多ければ多いほどいいのです。

私はコンセプトから始めて、いくつかのソフトウェア(Excel、SciLab、MatLab、R、時には全部を使うこともあります)でそれを完成させます。そこで私はテスターでテストしています(実際のソフトウェアでは大きな違いは感じられません)。そして、その一部を端末に、残りをC++/C#に転送し、外部ライブラリを接続するのです。

私の最初のシステム(2008年以降)は、VBA-Excelで作成され、ターミナルと非常によく連携していました。VBAの遅さも、パフォーマンスに問題はない。一般的に50msの遅延は、1mTF内で作業するにも良い時間とは言えません。

 
インテリジェント・シグナルを契約するのは簡単ですが、誰がそれを必要とするのでしょうか?総じて......!!!!!!!!!!!!!!!!!!!!!!!!!!!?
 
マキシム・ドミトリエフスキー

ところで、シークエンスの記事で、いくつかの信号を連続してカウントすることを提案されていましたが、そこを反転させると、信号の重ね合わせになります。

ファジーロジックでこのようなものを実装し、学習プロセスに組み込むという面白い解決策を思いつきました...あとで何か投稿するかもしれません :)


うんうん......その記事からだけだとね......。そこで明確に説明されなかったのかもしれませんが、誰も分離の事実を取り消しませんでした。

良いものと悪いものにはっきり分ける必要があります。モデルが着実に負けているか、あるいは得をしているか、それはすでに指標です。要は、その正しさではなく、分け方の安定性です......。

 

サンサンチ。

オーバーフィッター」 についての興味深い議論をご覧ください。

グッドラック

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
ウラジミール・ペレヴェンコ

サンサンチ。

オーバーフィッター」 についての興味深い議論をご覧ください。

グッドラック


私がここで書き、実践で使っているものはすべて、ここではオーバーフィット、オーバートレーニングと呼ばれる基本的な認知の問題の影響を何とか軽減するためのある種のトリックです。


モデルのオーバーフィットの問題は原理的に解決されていませんし、理論的にも解決されていませんし、このことは非常に長い間知られていました。モデルとは、常に外界の現実を近似し、粗くしたものである。したがって、モデルには必ず何らかの誤差が反映される。これは、どのモデルにも共通する長所であり短所でもあります。したがって、モデル化する対象を徹底的に研究しなければ、モデルを作ることはできないということになる。


見積もりを取れば

私たちは何をモデルにしているのか?

ランダムフォレストであれば、パターンの探索を自動化することになる。

GARCHであれば、気配値の統計的特性をモデル化する。

その際、必ずエラーが発生します。そして、この誤差は時系列の連続した塊では変化してはいけないという、ある種のヒューリスティックをここで提案しました。文字通り、次のチャンクで違う誤差を出すようなモデルは、オーバートレーニング(過剰適合)であり、原理的に使用できない。

ランダムフォレストの場合、私の理解では、ノイズの多い予測変数を取り除くと、学習済みモデルはノイズの多い予測変数を用いた場合よりもずっと長く同じ誤差を与えることがわかりました。しかし、すべての時代に対応するモデルを作るような解決策には気づいていませんし、その必要もありません。最新のデータの出力でモデルを再トレーニングするのはいいんだけどね。しかし、トレーニングはノイズ予測器のチェックから始めなければならない。ノイズ予測器のセットは時間とともに変化する。つまり、モデルそのものだけでなく、入力データのセットも変化する。私は時系列に沿ってウインドウランをしていたので、25個の予測変数のうち、10-15個の予測変数のサンプリングが常にあり、このグループの構成が変化します。誤差は非常に安定しており、23%から27%の範囲=常に30%以下である。予測変数の誤差が20%以下なら、このモデルは使わず待ちます。


PS.

私が他の機種に興味を持たない理由は、今までの話でおわかりいただけたと思います。

 
サンサニッチ・フォメンコ

私がここで書き、実践で使っているものはすべて、認知の基本的な問題、ここでは過適合、過学習と呼ばれるものの影響を何とか減らすための何らかのテクニックである。


立場は明確です。

頑張ってください。

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
理論としては面白いですね。しかし、実際にはどのように使うのでしょうか?どこかで使えるソフトはないでしょうか?
理由: