トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1045 1...103810391040104110421043104410451046104710481049105010511052...3399 新しいコメント Farkhat Guzairov 2018.09.10 13:50 #10441 マキシム・ドミトリエフスキー誰も後押ししてくれない限り、この方向に進むのは非常に難しい。今はトレードしていない、気が向いたときにシステムを仕上げる...そこで考えなければならないので、考えるのが嫌なのだ そうですね、私も同じ悩みを持っています。私が直面したことを(アカウントモニターのことです)見たり聞いたりできるものがあるんだな、と思いました。 Farkhat Guzairov 2018.09.10 13:54 #10442 mytarmailS:そう、pythonやRで5分かけて、こんなくだらないものは使えない、論理は最強だ、聞け、なぜ自分でプログラミング言語を作らないんだ、なぜmqlやc++やあなたが座っているものが必要なんだ・・・と理解するより、様々な変換の理論や実装に1年かけたほうがいいのです。ここで問題なのは、理論ではなく、それをどう理解するか、さらに、分析中に学んだことをすべて発表するための正しいアプローチである。 データを収集し、体系化するのは至難の業だが、それを正しく活用できていない場合がある。 mytarmailS 2018.09.10 15:22 #10443 ファルハット・グザイロフデータを収集し、体系化するのは至難の業だが、それを正しく活用できていない場合がある。そうですね、そういうこともありますね。 Mihail Marchukajtes 2018.09.10 15:26 #10444 ヴィザード_。秋の空にエクイを映してトレーニングビデオを撮ると約束したじゃないか)))まさか、大西洋をまたぐ大陸横断の巨人から電波を浴びることになるとは......。試用期間中は、ずっとノウハウを学んだり、研修に出向いたりしなければなりませんでした。選手権の時はカザンにも行きましたよ。でも、ほとんど土曜日にやっていましたが、トレードをあきらめませんでした。 そしてつい最近、偶然にもミスをして、またデータが改善されたんです。改善されることは、さらに分離可能であることを意味します。上の図2このため、オプティマイザーのレシェトフは、根本的に不完全性にしぼられているため、ここではただ再教育されただけで、原理的には良くないということになっている。データを解析したところ、クラスタリング領域に二重点があり、これはベクトルが同一、つまり数の尾がわずかに異なるだけのコピーであることを示している。このようなデータセットでは、一方のベクトルがトレーニングに、他方のベクトルがテストサンプルに入ると、過学習の原因になります。この場合、デュアル・ベクトルの1つを削除する必要がありますしかし、入力の意味を見ると、MOの高度なアロジカルネスに疑問を感じるようになります。だって、そんな入力の意味がわからないのに、SCUKOが動くんですもの! なんとなく自分で決めてしまっている。たまたま動作する入力に出会ったら、それを理解する必要はなく、ただ使えばいいだけ......。と聞かれても、「わからない」と答え、何があってもお金を取り続けるでしょう :-) Mihail Marchukajtes 2018.09.10 15:27 #10445 アレクサンダー_K.仕事はバカが好き :)))まずは日課と秩序を身につける。そうすれば、トレードは落ち着くでしょう。 Mihail Marchukajtes 2018.09.10 15:33 #10446 マキシム・ドミトリエフスキー異なるモデル(予測因子)を試す。例えば、多くのモデルを構築し、最適なモデルを選択する、異なる変換された入力データで。アカウントからパスワードを選ぶようなものです。対象やパターンに関するアプリオリな知識がない場合。 手作業によるハンドメイド。 そのワプニックの英語の動画は、こんな内容でした。ノォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォしかし、単純に考えてみましょう。同じデータセットに対して、トレンドとテストにランダムに分割して、10個のモデルを構築したとします。質問:元のデータセットを最もよく表すことができるモデルをどのように選べばよいのでしょうか?これは根本的な問題で、現在、そのあたりの理論を構築しているところです。今のところ、私の理論ではすべてが論理的であるように見えますが、完全ではありません。 この問題を解決するためには、得られたモデルの一般化可能性の指標を決定する必要がありますね。ここでいくつかの資料を読みましたが、そのような指標はすでに存在するものの、いずれも値を過大評価していることがわかりました。私の理解では、一般化のレベルを決定する統一された有効な方法論はありません。これはMOの分野では基本的な問題である。レシェトフの解き方もメトリックで、モデルの特異性と感度を計算すると、とりあえずは最適解になるのですが、すべて間違っているのです。でも、なんだろう......は、HUGE!!!!!!!:-) mytarmailS 2018.09.10 15:36 #10447 まさか自分が提案するとは思いませんでしたが、やはり...。 私は、いくつかのレベルを構築するニューラルネットワークに基づいたシステム(インジケータ)を作成しました、それは非常によく動作します。 この指標の思想は、何らかの本当の買われすぎ/売られすぎやセンチメートルを探すことです。 週に1~2回程度のシグナルを出し、シグナルが正しく認識されれば100%に近い確率で機能します。 問題は、私はmqlの専門家ではないこと、インジケータはRで書かれている(別のライブラリを使用している) ため、mqlを学ぶことができないことです。 もし、このコードをmqlに統合し、mt4で可視化する準備ができている開発者がここにいるならば、私は将来的に議論し、手助けする用意があります。 Maxim Dmitrievsky 2018.09.10 15:40 #10448 ミハイル・マルキュカイツノォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォしかし、単純に考えてみましょう。同じデータセットに対して、トレンドとテストにランダムに分割して、10個のモデルを構築したとします。質問:元のデータセットを最もよく表すことができるモデルをどのように選べばよいのでしょうか?これは根本的な問題で、現在、そのあたりの理論を構築しているところです。今のところ、私の理論ではすべてが論理的であるように見えますが、完全ではありません。 この問題を解決するためには、得られたモデルの一般化可能性の指標を決定する必要がありますね。ここでいくつかの資料を読みましたが、そのような指標はすでに存在するものの、いずれも値を過大評価していることがわかりました。私の理解では、一般化の度合いを判断する統一された有効な方法論はありません。これはMOの分野では基本的な問題である。レシェトフの解き方もメトリックで、モデルの特異性と感度を計算すると、とりあえずは最適解になるのですが、すべて間違っているのです。でも、なんだろう......は、HUGE!!!!!!!:-)2000個のモデルから10個は無いに等しい。 ランダムパーティショニングはそのまま存在するが、データセットも変化する。1コアのウルトラブックは15~20分でカウントされます。 ところで、jpedictorについてですが、いただいたバージョンで、UPORで核マシンを見ていないのですが、それを取り出して、どのように機能するか見てみたかったのです。 なんじゃらほい 分類エラーやlogloss以外に何を使えばいいのかわからない。 Mihail Marchukajtes 2018.09.10 15:44 #10449 mytarmailS:まさか自分が提案するとは思いませんでしたが、やはり...。 私は、いくつかのレベルを構築するニューラルネットワークに基づいたシステム(インジケータ)を作成しました、それは非常によく動作します。 この指標の思想は、何らかの本当の買われすぎ/売られすぎやセンチメートルを探すことです。 週に1~2回程度のシグナルを出し、シグナルが正しく認識されれば100%に近い確率で機能します。 問題は、私はmqlの専門家ではないこと、インジケータはRで書かれている(別のライブラリを使用している) ため、mqlを学ぶことができないことです。 もし、mqlでコードを統合し、mt4で可視化してくれる開発者がいれば、将来的に議論し、手助けする準備はできています。いや...ここにはないんです :-) Mihail Marchukajtes 2018.09.10 15:45 #10450 マキシム・ドミトリエフスキー2000モデルから10は無いに等しい。 ランダムパーティショニングはそのまま存在するが、データセットも変化する。1コアのウルトラブックは15〜20分でカウントされます。 ところで、jpedictorについてですが、いただいたバージョンで、UPORで核マシンを見ていないのですが、それを取り出して、どのように機能するか見てみたいと思いました。 なんじゃらほい クラシフィケーションエラーかログロス以外、何を使えばいいのかわからない。100%あります。すでに少しずつ自分用にリメイクを始めています。今、MKULにモデルをインストールするのは5秒の出来事です...。 1...103810391040104110421043104410451046104710481049105010511052...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
誰も後押ししてくれない限り、この方向に進むのは非常に難しい。今はトレードしていない、気が向いたときにシステムを仕上げる...そこで考えなければならないので、考えるのが嫌なのだ
そう、pythonやRで5分かけて、こんなくだらないものは使えない、論理は最強だ、聞け、なぜ自分でプログラミング言語を作らないんだ、なぜmqlやc++やあなたが座っているものが必要なんだ・・・と理解するより、様々な変換の理論や実装に1年かけたほうがいいのです。
ここで問題なのは、理論ではなく、それをどう理解するか、さらに、分析中に学んだことをすべて発表するための正しいアプローチである。
データを収集し、体系化するのは至難の業だが、それを正しく活用できていない場合がある。
データを収集し、体系化するのは至難の業だが、それを正しく活用できていない場合がある。
そうですね、そういうこともありますね。
秋の空にエクイを映してトレーニングビデオを撮ると約束したじゃないか)))
まさか、大西洋をまたぐ大陸横断の巨人から電波を浴びることになるとは......。試用期間中は、ずっとノウハウを学んだり、研修に出向いたりしなければなりませんでした。選手権の時はカザンにも行きましたよ。でも、ほとんど土曜日にやっていましたが、トレードをあきらめませんでした。 そしてつい最近、偶然にもミスをして、またデータが改善されたんです。改善されることは、さらに分離可能であることを意味します。上の図2このため、オプティマイザーのレシェトフは、根本的に不完全性にしぼられているため、ここではただ再教育されただけで、原理的には良くないということになっている。データを解析したところ、クラスタリング領域に二重点があり、これはベクトルが同一、つまり数の尾がわずかに異なるだけのコピーであることを示している。このようなデータセットでは、一方のベクトルがトレーニングに、他方のベクトルがテストサンプルに入ると、過学習の原因になります。この場合、デュアル・ベクトルの1つを削除する必要がありますしかし、入力の意味を見ると、MOの高度なアロジカルネスに疑問を感じるようになります。だって、そんな入力の意味がわからないのに、SCUKOが動くんですもの!
なんとなく自分で決めてしまっている。たまたま動作する入力に出会ったら、それを理解する必要はなく、ただ使えばいいだけ......。と聞かれても、「わからない」と答え、何があってもお金を取り続けるでしょう :-)
仕事はバカが好き :)))
まずは日課と秩序を身につける。そうすれば、トレードは落ち着くでしょう。
異なるモデル(予測因子)を試す。例えば、多くのモデルを構築し、最適なモデルを選択する、異なる変換された入力データで。アカウントからパスワードを選ぶようなものです。対象やパターンに関するアプリオリな知識がない場合。
手作業によるハンドメイド。
そのワプニックの英語の動画は、こんな内容でした。ノォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォしかし、単純に考えてみましょう。同じデータセットに対して、トレンドとテストにランダムに分割して、10個のモデルを構築したとします。質問:元のデータセットを最もよく表すことができるモデルをどのように選べばよいのでしょうか?これは根本的な問題で、現在、そのあたりの理論を構築しているところです。今のところ、私の理論ではすべてが論理的であるように見えますが、完全ではありません。
この問題を解決するためには、得られたモデルの一般化可能性の指標を決定する必要がありますね。ここでいくつかの資料を読みましたが、そのような指標はすでに存在するものの、いずれも値を過大評価していることがわかりました。私の理解では、一般化のレベルを決定する統一された有効な方法論はありません。これはMOの分野では基本的な問題である。レシェトフの解き方もメトリックで、モデルの特異性と感度を計算すると、とりあえずは最適解になるのですが、すべて間違っているのです。でも、なんだろう......は、HUGE!!!!!!!:-)
まさか自分が提案するとは思いませんでしたが、やはり...。
私は、いくつかのレベルを構築するニューラルネットワークに基づいたシステム(インジケータ)を作成しました、それは非常によく動作します。
この指標の思想は、何らかの本当の買われすぎ/売られすぎやセンチメートルを探すことです。
週に1~2回程度のシグナルを出し、シグナルが正しく認識されれば100%に近い確率で機能します。
問題は、私はmqlの専門家ではないこと、インジケータはRで書かれている(別のライブラリを使用している) ため、mqlを学ぶことができないことです。
もし、このコードをmqlに統合し、mt4で可視化する準備ができている開発者がここにいるならば、私は将来的に議論し、手助けする用意があります。
ノォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォォしかし、単純に考えてみましょう。同じデータセットに対して、トレンドとテストにランダムに分割して、10個のモデルを構築したとします。質問:元のデータセットを最もよく表すことができるモデルをどのように選べばよいのでしょうか?これは根本的な問題で、現在、そのあたりの理論を構築しているところです。今のところ、私の理論ではすべてが論理的であるように見えますが、完全ではありません。
この問題を解決するためには、得られたモデルの一般化可能性の指標を決定する必要がありますね。ここでいくつかの資料を読みましたが、そのような指標はすでに存在するものの、いずれも値を過大評価していることがわかりました。私の理解では、一般化の度合いを判断する統一された有効な方法論はありません。これはMOの分野では基本的な問題である。レシェトフの解き方もメトリックで、モデルの特異性と感度を計算すると、とりあえずは最適解になるのですが、すべて間違っているのです。でも、なんだろう......は、HUGE!!!!!!!:-)
2000個のモデルから10個は無いに等しい。 ランダムパーティショニングはそのまま存在するが、データセットも変化する。1コアのウルトラブックは15~20分でカウントされます。
ところで、jpedictorについてですが、いただいたバージョンで、UPORで核マシンを見ていないのですが、それを取り出して、どのように機能するか見てみたかったのです。
なんじゃらほい
分類エラーやlogloss以外に何を使えばいいのかわからない。
まさか自分が提案するとは思いませんでしたが、やはり...。
私は、いくつかのレベルを構築するニューラルネットワークに基づいたシステム(インジケータ)を作成しました、それは非常によく動作します。
この指標の思想は、何らかの本当の買われすぎ/売られすぎやセンチメートルを探すことです。
週に1~2回程度のシグナルを出し、シグナルが正しく認識されれば100%に近い確率で機能します。
問題は、私はmqlの専門家ではないこと、インジケータはRで書かれている(別のライブラリを使用している) ため、mqlを学ぶことができないことです。
もし、mqlでコードを統合し、mt4で可視化してくれる開発者がいれば、将来的に議論し、手助けする準備はできています。
いや...ここにはないんです :-)
2000モデルから10は無いに等しい。 ランダムパーティショニングはそのまま存在するが、データセットも変化する。1コアのウルトラブックは15〜20分でカウントされます。
ところで、jpedictorについてですが、いただいたバージョンで、UPORで核マシンを見ていないのですが、それを取り出して、どのように機能するか見てみたいと思いました。
なんじゃらほい
クラシフィケーションエラーかログロス以外、何を使えばいいのかわからない。
100%あります。すでに少しずつ自分用にリメイクを始めています。今、MKULにモデルをインストールするのは5秒の出来事です...。