トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 353

 
ユーリイ・アサウレンコ
分単位で言えば、市場は統計的に均質であり、つまり統計は週ごと、月ごとにほとんど変化しない(安定している)。もっと長い時間軸での質問を研究していないので、わからない。私の記憶では、1分間に取り組んでいますね。


15分足が基本タイムフレーム、1分足がOHLCでも、15分足であることに変わりはありません。ticksを使いたいが、最適化が非常に遅い。テスターはC++で書かれているので、もっと早く完成するかもしれない。

原理的には、小刻みに最適化しすぎることが多ければ、分単位でやってもいいわけです。もちろん聖杯ではありませんが、何かを獲得することはできます。


 
Q学習や他の強化アルゴリズムの実装を試された方はいらっしゃいますか?もしかしたら、ご存知の方もいらっしゃるかもしれませんね。統計学に興味があるのですが、預金管理という仕事にどの程度対応しているのでしょうか?このテーマでいくつかの記事を見つけましたが、結論はかなり曖昧で曖昧なものでした。
 
約束通り、MAクロッシングを認識するNAタスクに関する短いレポートをブログで公開しました -NEUROSETS AND MOVING AVERAGE
 
ユーリイ・アサウレンコ
約束通り、MAクロスオーバーNSの認識作業に関する簡単なレポートをブログに掲載しました -NEUROSETS AND MOVING AVERAGE

ニュースや記事などでは、子猫と子犬を見分けることができるなど、ニューラルネットワークの成果が語られています。しかし、それらは非常に高価な商用または実験用のネットワークであり、一般の商人には買えないし、開発することもできないらしい。

RやALGLIBのNSで、三角形や四角形、円などの原始的なものを区別できますか? ちょうど、2-3歳の子供向けの学習ゲームから。

このトピックに関する資料は、(結果があり、実験を繰り返す機会があれば)それを見つけて繰り返すことができるように、新しい枝https://www.mql5.com/ru/forum/192779 に整理することができるように思います。ここで350ページもあると、すでに何かを見つけるのは難しいのですが......。
Насколько доступные трейдерам нейросети умны?
Насколько доступные трейдерам нейросети умны?
  • 2017.05.16
  • www.mql5.com
В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч...
 
エリブラリウス

ニュースや記事などでは、子猫と子犬を見分けることができるなど、ニューラルネットワークの成果が語られています。しかし、これらは非常に高価な商用または実験用のネットワークであり、一般の業者が購入したり開発したりすることはできないらしい。

また、NSは(例えばRやALGLIBから)三角形、四角形、円などの原始的なものを区別することができますか? ちょうど、2-3歳の子供向けの教育ゲームのようなものです。

さて、そして絶対に難しいバリアント、体積図...。

Alglibは知りませんが、Rでできます、16x16くらいの入力行列が必要です。つまり、1入力あたり256ニューロン)。まあ、もう少し少ないかもしれませんが。同じような問題に対する実装は、Web上ですぐに見つけることができます。

回転でもできますが、NSはより深く、より複雑になります。個人的にはパスです))。

しかし、TCの構築のためには、このような形で皆さんの問題を応用することはないと思います。

 
ユーリイ・アサウレンコ

とはいえ、TC建設の場合、このような形で皆さんのこだわりのタスクが適用されるとは思えませんが。

ただ、より複雑な取引に適用する前に、利用可能なネットワークが単純な作業を処理できることを確認したいのです。
 
エリブラリウス
ただ、より複雑な取引に適用する前に、利用可能なネットワークが単純な作業を処理できることを確認したいのです。
MAで実験した結果、現段階では、TSでNSを適用する際の主な問題は、NSの入力に与えるデータの準備にあると見ています。生データは、ほとんどのNSにとって食べられないものでしょう。
 
エリブラリウス
ただ、より複雑な取引に適用する前に、利用可能なネットワークが単純な作業を処理できることを確認したいのです。

四角や 円は古典的なMLPで 問題なく簡単に認識できますが、もう少し突っ込んでいくと、古典的な手書きの数字認識タスクMNISTに 出会います、そこでは普通のMLPが 97%まで楽勝、その後きしみとともにもう半分、そしてタンバリンとのダンスが始まるのです。実際、このような状況パターンはMLの 多くのタスクで認められ、通常、十分な結果を得るためではなく、小数点以下3-5桁の括弧での戦いとなる。

 
ユーリイ・アサウレンコ
MAで実験した結果、現段階では、NSをTCで使う場合の主な問題は、NSの入力に与えるデータの準備にあると見ています。生データは、ほとんどのNSにとって食べられないものでしょう。

この支店は、主にこの問題を解決するために立ち上げられました。しかし、この問題の重要性を自分の経験から確認することのほうが、はるかに有益です。あなたは今、難しくも興味深い旅の始まりにいるのです。

グッドラック

PS.R、そしてPythonでは、現在知られている最も洗練されたニューラルネットワークをすべて利用することができます。使い方を覚えればいいんです。

 
サンサニッチ・フォメンコ


ああ、もういいや。

愚かにも一番シンプルなもの、ランダムフォレストを取り上げる。通常、私たちはトレーニングの結果としてクラスを取得します。現実には、アルゴリズムがクラスの確率を出し、そこからクラスを得る。通常、2クラス分の確率を半分に分けます。

0〜0.1を1クラス、0.9〜1.0をもう1クラスと分けてはどうだろうか。そして、0.1〜0.9の差は市場からはみ出している?

記事にはそう書いてありました。

これはcalibrate::CORELearn/ でより正しく、エレガントに解決されます。

そして、かなり以前からそうでした。

グッドラック

理由: