トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1033

 
ロフィルド

私はプログラマーであり、テレパスではありません。何か質問があれば、お答えしますよ...。

答え: 42 :D

プログラマーとして答える覚悟があるなら、ここで簡単な質問をしてみましょう。プログラミングの課題、同時にあなたが主張するスキルのチェックです。

添付ファイルには、EA用のEURUSD H1 シグナルのテンプレートがありますが、その形成のアルゴリズムを決定する必要があります。

もし望むなら、EAとしてソリューションを投稿し、予測器ブルートフォースと機械学習ライブラリの力を実際に見せることができます。

私は、提案された問題やテンプレートとして提示された他の問題を、私の手口を使って解決する用意があります。

おそらく、このモードのスクリプターでは、少なくともいくつかの共通のアプローチとフォーマットをうまくやることができるだろう。)

ファイル:
EA_EURUSD_H1.tpl  130 kb
 

テンプレートを保存する前に、すべてのインジケータを削除しておく必要がありました。name=mainのインジケーターではなかったのか、データが表示されない。

そして、その戦略が利益を生むという保証はどこにあるのでしょうか?もしかしたら、歴史の中のラッキーな出来事かもしれない...。

特に質問もないので、誰も私の文庫を読んでいないようです。誰もが、それを見つける手段を理解せずに、聖杯を 欲しがっている。

 
ロフィルド

テンプレートを保存する前に、すべてのインジケータを削除しておく必要がありました。name=mainのインジケーターではなかったのか、データが表示されない。

そして、その戦略が利益を生むという保証はどこにあるのでしょうか?もしかしたら、歴史の中のラッキーな出来事かもしれない...。

私のライブラリのことは誰も知らないようで、質問もありません。すべての人が聖杯を手に入れたいと思いながら、それを見つける手段を理解していない。

メインエントリはすべてのテンプレートにあり、それは干渉しませんし、そこのデータは、矢印、青 - 買う、赤 - 売るという唯一のグラフィカルなオブジェクトです。

EURUSD H1チャートを開き、ファイルをダウンロード(メニュー Charts︓TemplateLoad Template...)し、コンテキストメニューからObjects Listを確認します。


そして、誰もあなたに聖杯を求めているわけではなく、ただ問題を解決し、あなたの言うことやライブラリの仕組みを実際に確認するためなのです。

 
アレクセイ・テレンテフ
高度なニューラルネットワークアーキテクチャに興味を持てば、非常に興味深いアイデアが出てきます。もちろん、詳細を説明するのは難しく、ディザリング用のフレームワークの経験や、一般的なベクトル数学の理解も必要です。
でも、その価値はあります。
マーケットに関しては、特に見せるものはありません。マーケットは***inok)時間がかかりますね。
Discordで私たちに来て、我々は静かで居心地の良いを持っている)私は説明し、深いネットワークを準備する方法例によってあなたを表示します。

渡しちゃダメだよ、脳みそを犯されるよ。

 
アレクセイ・テレンテフ
高度なニューラルネットワークアーキテクチャに興味を持つと、非常に面白いアイデアが出てきます。もちろん、詳細を知るのは難しく、ディザリングフレームワークの経験や、一般的なベクトル数学の理解も必要です。
でも、その価値はあります。
マーケットに関しては、特に見せるものはありません、マーケットは***inok)時間がかかりますね。
私は、深いネットワークを準備する方法を説明し、例によってあなたを表示します。

私はフォーラムでコミュニケーションをとり、セクトを支持しない

)

 
ロフィルド

私はプログラマーであり、テレパスではありません。何か質問があれば、お答えしますよ...。

答え: 42 :D

私は、「何が何にどうつながるか」ではなく、「なぜそうなるのか」というコンセプトに興味があります。

理論的なアプローチの説明、コードから実感していない、それを理解するためだけにjavaやsparkなどを使うのは楽しくない

つまり、iOをどのように見て、どのように扱うか、いわば理解の深さです。

43に答えてくれれば、もう質問しません。)

 

MQL5上にある私のライブラリの一部は、Apache Sparkと直接リンクしていません。Sparkで使うためにデータを変換するJavaのモジュールが別に ある。そして、このモジュールは Pythonに移植されるべきものです。

Apache Sparkは、分散型 ビッグデータ処理システム+Random Forests用 モジュールです。1000台のサーバーのデータを処理できる(Facebookはこのような閾値につまずいた)。

ビッグデータ - ファイル処理がRAMに収まらない場合。

与えられた:5GBの中に2年間で800の予測変数。

タスク:amazonの安いサーバーを使って、1-2時間で250本のツリーを作成する。

解決策:AWS EMR + Apache Spark。

Sparkを使用せずに解決する方法はありますか?

 

Apache Sparkを使えば、RAMの不足を忘れることができます。

7000の予測因子と30GBのデータで500本の木からなるランダムフォレストを 作りました。Amazonは、16CPUのサーバー2台で15時間稼働しました。

 
ロフィルド

Apache Sparkを使えば、RAMの不足を忘れることができます。

私は、7000の予測因子と30GBのデータで500の木からなるランダムフォレストを作成しました。アマゾンは16CPUのサーバー2台で15時間稼働していた。

ランダムフォレストの予測変数が7000個というのもポイント?やはり再教育ですね。30~40個ほどの予測子を取って、森を学習させた。そして、ひとつひとつチェックして、こうして4つの予測因子を選びました。

4つの予測変数で学習させたフォレストは、30〜40の予測変数で学習させたフォレストよりも少し良い結果が得られますが、それほど大きな差はありません。特にFXの引用文はよりランダムなデータ型 であり、ネガティブなクラスに対して+5%(正しく55%予測)されることがわかりました。

もちろん、価格系列からうまくクラスを分けられるような成分をどうにかして抽出できるのかもしれませんが、今のところそれができていません。

私が言いたいのは、「プレディクターを作る必要はない」ということです。あまり意味がないと思います、森の再教育がさらに早くなるだけです。

 
ロフィルド

Apache Sparkを使えば、RAMの不足を忘れることができます。

7000の予測因子と30GBのデータで500本の木からなるランダムフォレストを作りました。Amazonは、16CPUのサーバー2台で15時間稼働しました。

能力のない者を詰め込み、意味もなく予測器を掛けることにしたのだ。

また、その重要 度はどの程度なのでしょうか?また、1つの予報に3時間という、これだけ多くの予報士がいる中で、今のシステムレスポンスはどうなっているのでしょうか?)
理由: