トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 427

 
ミハイル・マルキュカイツ

原理的には問題ない。そこに予測力はゼロ...。

エクイティを見て、利益をドローダウンで割るようなものです。

そして、予想が当たれば当たるほど、高いSR

 
アリョーシャ

で、予想と何の関係があるかというと、エクイティを目で見て、利益をドローダウンで割るようなもので、約SR

そして、予想が当たれば当たるほど、SRは高くなる。


そして、この場合それなら、そうですね。完全に同意...。

 
サンサニッチ・フォメンコ

教えてください。https://www.mql5.com/ru/blogs/post/160258、提案されている分類器の中でRFが最も優れていると書かれていますが、私もそう思います。また、第3世代のディプラニング(オートエンコーダーを使用したもの)については、比較テストは行われたのでしょうか?

Нужны ли нам сотни классификаторов для решения проблем классификации реального мира?
  • 2014.11.13
  • СанСаныч Фоменко
  • www.mql5.com
В статье оценивается доступные сегодня 179 классификаторов, принадлежащих к 17 семействам (дискриминантный анализ, Байес, нейронные сети, машины векторов поддержки SVM , деревья решений, основанные на...
 
アリョーシャ



GARCHについて 私の知る限り、それはボラティリティを予測する線形モデルであり、市場の方向性を予測するものではありません。

GARCHはボラティリティモデルで、次のローソク足の方向と大きさを予測するものです。タイムフレームは、M5、M30、D1、いずれでもよい。しかし、通常は高頻度取引に至るまでの浅いTFである。

GARCHを使うには、最初の気配値を分析して、訓練されたGARCHが歴史的にも将来的にも同じ振る舞いをすることを証明する必要があるため、魅力的だと思います。

これは、Expert Advisorの将来のパフォーマンスにとって最大の悪とされる非定常性(平均値の変動、平均値からの偏差の変動)に対抗するためのものです。

モデル自体は3つの要素で構成されています。

最初は価格刻みを計算します。そして、この増分を表す数式が書かれている。

1.平均値の振る舞いについて

2. 平均値からの乖離挙動(ボラティリティ)に対して。指数関数型や閾値型など、多数のバリエーションがある(モデルの線形性のことです)

3.平均値の分布の法則。


もし、これらすべての部分のパラメータを「正しく」選択 することが可能であれば、残差は正規分布になるはずで、これは将来、モデルが過去のデータに近い振る舞いをすることを保証するものである。


こんな感じです、すごくざっくりと。

 
マキシム・ドミトリエフスキー

教えてください。https://www.mql5.com/ru/blogs/post/160258、提案されている分類器の中でRFが最も優れていると書かれていますが、私もそう思います。また、第3世代のディプリンキング(オートエンコーダー搭載)については、比較テストはされていますか?

diplinkingは、絵や文章などの階層構造の中で、角や線が単純な図形で、その中に複雑な図形がある、というような単純な特徴を自動的に検索するものだと聞いています。時系列に関しては、ちょっと違うんです。つまり、深い畳み込みニューラルネットワークが冷静に写真上の猫や顔を見つけたとしても、冷静に市場を予測するわけではありません。その上、すべての「深い」はユーザーにとって非常に面倒で、C++でネットワーク全体を一から10回作り直した人でも、多くのパラメータは非常に不安定で、結果はランダムです。何年も付き合っていかなければならないのです。しかし、それは私のIMHOではなく、私は試したことがなく、おそらくこれからも試さないでしょう。

 
アリョーシャ

Renaissanceでさえ、1日あたりテラバイトのデータでこのようなことはないでしょう。数値ai ライブスコアを見て、なぜ彼らが少なくとも45%のエラー率(logloss~0.69)で、あなたが30%なのかを考えてみてください。

しかし、あなたの言うことは真実で、あなたは巧妙な(明らかにあなたにとって明白ではない)方法で特徴に機能的に結合した合成ターゲット関数を作成し、あなたはLornとテストでこのように素晴らしいスキャンを持っており、すべてが正しく見えます... しかし、あなたはまだ億万長者ではありません、次のキャンドルカラーの予測で30%のエラーがあったとしても、約1年で簡単になることができました、それはあなたが将来を予測していないためです、指標を介して将来と混合した過去があります。純粋な未来の帰国子女を予測してみれば、すべてがうまくいくはずです。

ミスターはいろいろ言っていますが、ZZの何が悪いのか、何が必要なのか、みんなに怒鳴るのではなく、すぐに提示されたのに、肝心なことは何も言っていないんですね。

 
機械学習や数学に関する書籍、ビデオ、講座の一覧で、すべてロシア語で書かれています。豊富で高品質な品揃え。ほぼ全ての書籍のpdfがグーガブルになっています。
https://ru.stackoverflow.com/a/683632/1084
Книги и учебные ресурсы по машинному обучению
Книги и учебные ресурсы по машинному обучению
  • ru.stackoverflow.com
Для тех, кто хочет на русском языке почитать: Хараламбос Марманис, Дмитрий Бабенко Алгоритмы интеллектуального Интернета. Передовые методики сбора, анализа и обработки данных источник К. В. Воронцов. Математические методы обучения по прецедентам (теория обучения машин) источник Мерков А.Б. Введение в методы статистического обучения...
 
ゼンヤ

diplanningはちょっと違っていて、絵や文章などの階層構造の中で、エッジが角や線になっていて、そのシンプルな形がより複雑になったりして、SIMPLEな特徴を自動的に探し出すものだと聞いています。時系列に関しては、ちょっと違うんです。つまり、深い畳み込みニューラルネットワークが冷静に写真上の猫や顔を見つけたとしても、冷静に市場を予測するわけではありません。その上、すべての「深い」はユーザーにとって非常に面倒で、C++でネットワーク全体を一から10回作り直した人でも、多くのパラメータは非常に不安定で、結果はランダムです。何年も付き合っていかなければならないのです。しかし、それは私のIMHOではなく、私は試したことがなく、おそらくこれからも試さないでしょう。

あなたが言うほど悪いものではありませんよ。

難しいことではありませんので、まずはこの数記事(1234)から始めてみてください。一度に全部はうまくいかないし、意味もないだろうけど、きっと役に立つはずだ。

グッドラック

 
ジャンニ

diplanningはちょっと違っていて、絵や文章などの階層構造の中で、エッジが角や線になっていて、そのシンプルな形がより複雑になったりして、SIMPLEな特徴を自動的に探し出すものだと聞いています。時系列に関しては、ちょっと違うんです。つまり、深い畳み込みニューラルネットワークが冷静に写真上の猫や顔を見つけたとしても、冷静に市場を予測するわけではありません。その上、すべての「深い」はユーザーにとって非常に面倒で、C++でネットワーク全体を一から10回作り直した人でも、多くのパラメータは非常に不安定で、結果はランダムです。何年も付き合っていかなければならないのです。しかし、それは私のIMHOではなく、私は試したことがなく、おそらくこれからも試さないでしょう。

私は参照してください、私は実際には誰もここと比較しなかったと思う:)それはdiplerningは森の上の利点を与えていないことが判明した場合、最終的にはだまされていないことを、情報を求めます。そして、そこの構成パーツがMLPなので、そうでないことも十分に考えられるのですが......。

ちなみに、2層以上のものをdiplerningと呼びますが、隠れ層が2層のMLPもdiplerningにあたります。上記リンクの記事でウラジミールが説明しているディープネットのことです。

モデルが同じように動くので、予測変数が最も重要だと言われていますが、これは理論上の話で、実際にはモデルの選択も非常に重要であることがわかります。例えば、スピードとクオリティの妥協点、NSは通常長いので...。

実際には、libu経由のP-MT5 mixは遅くて不便なので、左利き用のソフトやMT5からPサーバーに直接接続しないネイティブが必要ですが、ネイティブが良いですね。mql上で必要なニューラルネットワークをC++で書き直したい、ただそれだけなんです。

あ、IMHOを入れ忘れた。

 

エヘン...エヘン...考え込んでしまった、考え込んでしまった...。

ARMA/GARCH のような古典的なものから、CNN/LSTMの ような完全なブレークスルー、みんな大好きMLPRF⇄GB などの中間のモデルまで、たくさんのモデルがあります。しかし、どのようにそれをすべて統一するのですか? 例えば、私たちは、特別なライブラリやトレーニングなしでどこでも読める普遍的な形式で訓練されたモデルを交換/販売できるように、誰かが何かつまらないモデルを渡そうとした人は、おそらく私が何を意味するか理解しています))))

そして、この問題を解決してくれたのが、数値.ai - です。実際に送られてくるのは、単なる予測ではなく、十分な精度でサンプリングされた間抜けな既成モデルです。 実際そうでなければ、どうやって事前に未来からフィクションを入手して答えを出せるでしょうか。フィクションはリアルタイムで、事前に知ることはできないのですから。しかし、N次元 空間を格子状に点を埋めていくと、新しい点、格子から最も近い点(複数)が、インデックスによって配列の 要素として瞬時に検索されることになるのです。そして、どんなシンプルでトリッキーなモデルでも、その秘密を明かさずに簡単に移植し、使うことができる、そんなモデルに転化することができるのです。

数値に リスペクトを。ai さん、発想が超いい!

私たちの悲惨な社会でどのように使われるかを熟考することを提案します)))

理由: