ニューラルネットワークのアドバイザー、経験を共有する。 - ページ 3 12345678910 新しいコメント Serqey Nikitin 2015.08.28 14:23 #21 Maxim Dmitrievsky:誰に頼まれたわけでもなく、ただ面白いと思っただけです(笑)。誰も「面白い!」と主張しているわけではありません。でも、専門性を身につけるのに、数段ジャンプしても意味がない......。ニューラルネットは、それ自体では「正しい出力」を与えてくれません。 ニューラルネットがなくても、きちんとした結果を出してくれるような取引戦略のアイデアが必要です......。 Maxim Dmitrievsky 2015.08.28 14:32 #22 Serqey Nikitin:誰も「面白い!」と主張しているわけではありません。でも、専門的なことを教えるのに、数段飛び越えるようでは意味がない...。ニューラルネットワークは、それ自体では「正しい出力」を与えてくれません。 ニューラルネットワークがなくても、きちんと結果を出してくれるような取引戦略の考え方が必要です...。考え方について議論しているわけではなく、もちろん必要なことです。しかし、ニューラルネットワークは、アイデアを素早く検証したり、少なくとも前進する方法を見出すのに役立ちます。例えば、標準的なオシレーターの11入力は、すべて同じものを示すが、何も得られないことがすでに分かっている。まったく同じように、1回のエントリーで取引することができます。ジャンプについてはその通りで、数学者でもプログラマーでもない私の専門では全くありません。幸いなことに、ニューラルネットワークとは何か、何をするものかを比喩的に理解するだけで十分です。なぜなら、このクラスのような既製のソリューションがすでに提供されているからです。そして、マーケットを理解した上で、いくつかのアイデアを試しながら、実験していくのです。 Maxim Dmitrievsky 2015.08.28 14:47 #23 Алексей:ニューラルネットのトピックを探してみようか...。4に載っていて、ずいぶん前のことです。http://forum.mql4.com/ru/38550入力は、多少のラグ(数時間のオーダー)を伴う価格差でした。数時間先のバイナリプラスマイナスの予報を出力します。すべてのネットは、アーキテクチャのブルートフォースによって得られたものです。一番の問題は、複数のフォワードテストを接着することでした。これはいい意味で自動化されているはずです。 このことから、最も重要なのは正しい入力 であり、それを考えることであると理解した......。ある種の隠れた依存関係をニューラルネットワークで見つけるのはかなり難しく、最初に何らかの依存関係のアイデアを持っていて、それをグリッドで処理する必要があります。 Alexey Burnakov 2015.08.28 15:16 #24 Maxim Dmitrievsky: このことから、最も重要なのは正しいインプットであり、それを考えることだと理解したのですが......。ある種の隠れた依存関係をニューラルネットワークで見つけるのはかなり難しく、最初はある種の依存関係のアイデアを持っていて、それをグリッドで処理する必要があるのです。入力については、そうですね。ただ、パッと見で「良い」と思える入力のセットは作れないということですね。どうやって探すの?多くの入力を行い、その中から情報量の多いベクトルを選択する手順を作ればよいのです。そして、その上でネットを鍛えるべきでしょう。また、有益な入力が見つかった場合(90%の場合)、モデルはブラックボックスではなく、ある種のルール形成アルゴリズムに基づくことができるため、ネットワークは全く必要ないのです。依存について。ネットでは、依存の形はわからないでしょう。そもそもこのような用途を想定していない。そして、もう一度先ほどの話に戻るが、情報量の多い特性を見つけ出し、それを使って統計的に関連性の高いルールを構築することが必要である。もし解読を望むなら、もっと教えてあげよう)。今、私は勤務中で、あまり説明に時間を割くことができませんが、今日は金曜日でよかったです。)) Maxim Dmitrievsky 2015.08.28 15:29 #25 Алексей:入力については、そうですね。ただ、パッと見で「良い」と思える入力のセットは作れないということですね。どうやって探すの?多くの入力を行い、その中から情報量の多いベクトルを選択する手順を作ればよいのです。そして、その上でネットを鍛えるべきでしょう。また、有益な入力が見つかった場合(90%の場合)、モデルはブラックボックスではなく、ある種のルール形成アルゴリズムに基づくことができるため、ネットワークは全く必要ないのです。依存について。ネットでは、依存の形はわからないでしょう。そもそもこのような用途を想定していない。そして、もう一度先ほどの話に戻るが、情報量の多い特性を見つけ出し、それを使って統計的に関連性の高いルールを構築することが必要である。もし解読を望むなら、もっと教えてあげよう)。今、私は勤務中で、あまり説明に時間を割くことができませんが、今日は金曜日でよかったです。))実は、私のアイデアはもともと、異なる時間枠でネットワークを訓練し、小さいものから大きいものへとシグナルをフィルタリングすること、つまり、ネットワークが50対50の割合で間違ったエントリーを生成することを考慮に入れて、統計的優位性を獲得することでした。ニューラルネットワーク自体が大量のデータを処理することを意味しており、それが強みなので、特定の定性的なパターンからではなく、プレート全体に多数の信号を塗りつぶすことができるのです。そして、その内部で何が起こっているかは問題ではなく、重要なのは、ニューラルネットワークがそのすべてを秩序づけようとすることです。しかし、OpenClなしでは時間がかかりすぎて無理でしょう。おそらく、記事に あるような第3世代のネットワークが必要なのでしょう。しかし、もちろん、皆さんのコメントは面白いです。以前提案されたインジケータをいじってみます。ジグザグ(2出力)と組み合わせると、わけのわからないものになります。入力の数を減らして、出力だけにする。 Georgiy Merts 2015.08.28 16:00 #26 Maxim Dmitrievsky: ミューウイングスで安定して稼いでいる人の話は聞いたことがない)。"確かに最近のミューウイングは ほとんど儲からないですね。しかし、信号のフィルタとしては、ミューウイングはかなり適しています。 Georgiy Merts 2015.08.28 16:03 #27 Serqey Nikitin:すべてのパターンは線形指標に比べて遅れて おり、その場合、ニューラルネットワークは役に立たないことはご存じでしょう。 うーん...私の考えでは、パターンは最速のインプットです。どんな発振器でも遅くなる。ましてやムウイングはなおさらだ。 Alexey Burnakov 2015.08.28 16:06 #28 Maxim Dmitrievsky:一般的に、私は当初からこのような考えを持っていました:異なるTFでネットを訓練し、小さなTFからのシグナルを大きなTFでフィルターする、つまり、ネットがある程度の割合、例えば50対50で間違った入力を生成することを考慮し、これに関する統計的優位性を得ることです。ニューラルネットワーク自体が大量のデータを処理することを意味しており、それが強みなので、特定の定性的なパターンからではなく、プレート全体に多数の信号を塗りつぶすことができるのです。そして、その内部で何が起こっているかは問題ではなく、重要なのは、ニューラルネットワークがそのすべてを秩序づけようとすることだ。しかし、OpenClなしでは時間がかかりすぎて無理でしょう。おそらく、記事に あるような第3世代のネットワークが必要なのでしょう。しかし、もちろん、皆さんのコメントは面白いです。以前提案されたインジケータをいじってみます。ジグザグ(2出力)と組み合わせると、わけのわからないものになります。入力の数を減らして、出力だけにする。 看板の選び方や特徴についてご紹介します。ネットワークに曖昧な情報を与えるのは、最良の方法とは言えません。以下はその一例です。仕事では、1入力あたり10個の離散変数に対するモデル・バイナリ分類器を開発しました。76の機能から気の利いた方法で選びました。この予測は、いわゆるマジョリティ主義で、1の割合が強く上回っていれば、1である。分類器の品質は、76個の変数からなる特徴ベクトルをすべて使った150個の木からなるランダムフォレストよりも悪くないことが判明しました。しかも、シンプルなモデルは人間が読めるルールを構築しているのに対して、森はダークボックスです。ちなみに、通常の多層パーセプトロンは、学習済みネットワーク上の重みを分析することで特徴を選択することができる。ネットワークは、相関のある入力、つまり互いに矛盾する入出力ペアでより悪く学習することはご存知でしょう。だから、悪いインプットをふるい落とすには、ふるい落としが必要なのです。 Maxim Dmitrievsky 2015.08.28 21:22 #29 Алексей: 看板の選び方や特徴についてご紹介します。ネットワークに未知のものをたくさん送り込むのは良いアプローチではありません。以下はその一例です。私は職場で、10個の離散変数を入力とする2値分類器モデルを開発しました。76の機能から気の利いた方法で選びました。この予測は、いわゆるマジョリティ主義で、1の割合が強く上回っていれば、1である。分類器の品質は、76個の変数からなる特徴ベクトルをすべて使った150個の木からなるランダムフォレストよりも悪くないことが判明しました。しかも、シンプルなモデルは人間が読めるルールを構築しているのに対して、森はダークボックスです。ちなみに、通常の多層パーセプトロンは、学習済みネットワーク上の重みを分析することで特徴を選択することができる。ネットワークは、相関のある入力、つまり互いに矛盾する入出力ペアでより悪く学習することはご存知でしょう。だから、悪い入力を排除するためには、ふるいにかける必要があるのです。そうですね、それは次元の呪いと呼ばれているようです :)実際、私の場合、入力に同じ発振器の束があり、これをすべて削除して1つ残す必要があります。もう一つの質問ですが、入力のデータを正規化する場合、セット全体から最大値と最小値を考慮して、1サイクルですべてのベクトルを同時に正規化するのがよいのでしょうか、それとも、各特定のベクトルの最大値と最小値を考慮して、各入力を別々に正規化するのがよいのでしょうか? Roman Shiredchenko 2015.08.29 05:36 #30 Serqey Nikitin:誰も「面白い!」と主張しているわけではありません。でも、専門性を身につけるのに、数段飛び越えるようでは意味がない...。ニューラルネットは、それだけでは「正しい出力」は得られない。魔法の杖ではないのだ。 ニューラルネットを使わなくても、ちゃんと結果が出るような取引戦略の正しい考え方が必要です。 そうなります。魔法のような1枚。入力データの準備の仕方を知っておく必要があります。 それならニューラルネットは必要ないですね。 12345678910 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
誰に頼まれたわけでもなく、ただ面白いと思っただけです(笑)。
誰も「面白い!」と主張しているわけではありません。
でも、専門性を身につけるのに、数段ジャンプしても意味がない......。
ニューラルネットは、それ自体では「正しい出力」を与えてくれません。 ニューラルネットがなくても、きちんとした結果を出してくれるような取引戦略のアイデアが必要です......。
誰も「面白い!」と主張しているわけではありません。
でも、専門的なことを教えるのに、数段飛び越えるようでは意味がない...。
ニューラルネットワークは、それ自体では「正しい出力」を与えてくれません。 ニューラルネットワークがなくても、きちんと結果を出してくれるような取引戦略の考え方が必要です...。
考え方について議論しているわけではなく、もちろん必要なことです。しかし、ニューラルネットワークは、アイデアを素早く検証したり、少なくとも前進する方法を見出すのに役立ちます。例えば、標準的なオシレーターの11入力は、すべて同じものを示すが、何も得られないことがすでに分かっている。まったく同じように、1回のエントリーで取引することができます。
ジャンプについてはその通りで、数学者でもプログラマーでもない私の専門では全くありません。幸いなことに、ニューラルネットワークとは何か、何をするものかを比喩的に理解するだけで十分です。なぜなら、このクラスのような既製のソリューションがすでに提供されているからです。そして、マーケットを理解した上で、いくつかのアイデアを試しながら、実験していくのです。
ニューラルネットのトピックを探してみようか...。4に載っていて、ずいぶん前のことです。
http://forum.mql4.com/ru/38550
入力は、多少のラグ(数時間のオーダー)を伴う価格差でした。数時間先のバイナリプラスマイナスの予報を出力します。
すべてのネットは、アーキテクチャのブルートフォースによって得られたものです。
一番の問題は、複数のフォワードテストを接着することでした。これはいい意味で自動化されているはずです。
このことから、最も重要なのは正しいインプットであり、それを考えることだと理解したのですが......。ある種の隠れた依存関係をニューラルネットワークで見つけるのはかなり難しく、最初はある種の依存関係のアイデアを持っていて、それをグリッドで処理する必要があるのです。
入力については、そうですね。ただ、パッと見で「良い」と思える入力のセットは作れないということですね。どうやって探すの?多くの入力を行い、その中から情報量の多いベクトルを選択する手順を作ればよいのです。そして、その上でネットを鍛えるべきでしょう。また、有益な入力が見つかった場合(90%の場合)、モデルはブラックボックスではなく、ある種のルール形成アルゴリズムに基づくことができるため、ネットワークは全く必要ないのです。
依存について。ネットでは、依存の形はわからないでしょう。そもそもこのような用途を想定していない。そして、もう一度先ほどの話に戻るが、情報量の多い特性を見つけ出し、それを使って統計的に関連性の高いルールを構築することが必要である。
もし解読を望むなら、もっと教えてあげよう)。今、私は勤務中で、あまり説明に時間を割くことができませんが、今日は金曜日でよかったです。))
入力については、そうですね。ただ、パッと見で「良い」と思える入力のセットは作れないということですね。どうやって探すの?多くの入力を行い、その中から情報量の多いベクトルを選択する手順を作ればよいのです。そして、その上でネットを鍛えるべきでしょう。また、有益な入力が見つかった場合(90%の場合)、モデルはブラックボックスではなく、ある種のルール形成アルゴリズムに基づくことができるため、ネットワークは全く必要ないのです。
依存について。ネットでは、依存の形はわからないでしょう。そもそもこのような用途を想定していない。そして、もう一度先ほどの話に戻るが、情報量の多い特性を見つけ出し、それを使って統計的に関連性の高いルールを構築することが必要である。
もし解読を望むなら、もっと教えてあげよう)。今、私は勤務中で、あまり説明に時間を割くことができませんが、今日は金曜日でよかったです。))
実は、私のアイデアはもともと、異なる時間枠でネットワークを訓練し、小さいものから大きいものへとシグナルをフィルタリングすること、つまり、ネットワークが50対50の割合で間違ったエントリーを生成することを考慮に入れて、統計的優位性を獲得することでした。ニューラルネットワーク自体が大量のデータを処理することを意味しており、それが強みなので、特定の定性的なパターンからではなく、プレート全体に多数の信号を塗りつぶすことができるのです。そして、その内部で何が起こっているかは問題ではなく、重要なのは、ニューラルネットワークがそのすべてを秩序づけようとすることです。しかし、OpenClなしでは時間がかかりすぎて無理でしょう。おそらく、記事に あるような第3世代のネットワークが必要なのでしょう。
しかし、もちろん、皆さんのコメントは面白いです。以前提案されたインジケータをいじってみます。ジグザグ(2出力)と組み合わせると、わけのわからないものになります。入力の数を減らして、出力だけにする。
ミューウイングスで安定して稼いでいる人の話は聞いたことがない)。
すべてのパターンは線形指標に比べて遅れて おり、その場合、ニューラルネットワークは役に立たないことはご存じでしょう。
一般的に、私は当初からこのような考えを持っていました:異なるTFでネットを訓練し、小さなTFからのシグナルを大きなTFでフィルターする、つまり、ネットがある程度の割合、例えば50対50で間違った入力を生成することを考慮し、これに関する統計的優位性を得ることです。ニューラルネットワーク自体が大量のデータを処理することを意味しており、それが強みなので、特定の定性的なパターンからではなく、プレート全体に多数の信号を塗りつぶすことができるのです。そして、その内部で何が起こっているかは問題ではなく、重要なのは、ニューラルネットワークがそのすべてを秩序づけようとすることだ。しかし、OpenClなしでは時間がかかりすぎて無理でしょう。おそらく、記事に あるような第3世代のネットワークが必要なのでしょう。
しかし、もちろん、皆さんのコメントは面白いです。以前提案されたインジケータをいじってみます。ジグザグ(2出力)と組み合わせると、わけのわからないものになります。入力の数を減らして、出力だけにする。
仕事では、1入力あたり10個の離散変数に対するモデル・バイナリ分類器を開発しました。76の機能から気の利いた方法で選びました。この予測は、いわゆるマジョリティ主義で、1の割合が強く上回っていれば、1である。分類器の品質は、76個の変数からなる特徴ベクトルをすべて使った150個の木からなるランダムフォレストよりも悪くないことが判明しました。しかも、シンプルなモデルは人間が読めるルールを構築しているのに対して、森はダークボックスです。
ちなみに、通常の多層パーセプトロンは、学習済みネットワーク上の重みを分析することで特徴を選択することができる。ネットワークは、相関のある入力、つまり互いに矛盾する入出力ペアでより悪く学習することはご存知でしょう。だから、悪いインプットをふるい落とすには、ふるい落としが必要なのです。
看板の選び方や特徴についてご紹介します。ネットワークに未知のものをたくさん送り込むのは良いアプローチではありません。
私は職場で、10個の離散変数を入力とする2値分類器モデルを開発しました。76の機能から気の利いた方法で選びました。この予測は、いわゆるマジョリティ主義で、1の割合が強く上回っていれば、1である。分類器の品質は、76個の変数からなる特徴ベクトルをすべて使った150個の木からなるランダムフォレストよりも悪くないことが判明しました。しかも、シンプルなモデルは人間が読めるルールを構築しているのに対して、森はダークボックスです。
ちなみに、通常の多層パーセプトロンは、学習済みネットワーク上の重みを分析することで特徴を選択することができる。ネットワークは、相関のある入力、つまり互いに矛盾する入出力ペアでより悪く学習することはご存知でしょう。だから、悪い入力を排除するためには、ふるいにかける必要があるのです。
そうですね、それは次元の呪いと呼ばれているようです :)実際、私の場合、入力に同じ発振器の束があり、これをすべて削除して1つ残す必要があります。
もう一つの質問ですが、入力のデータを正規化する場合、セット全体から最大値と最小値を考慮して、1サイクルですべてのベクトルを同時に正規化するのがよいのでしょうか、それとも、各特定のベクトルの最大値と最小値を考慮して、各入力を別々に正規化するのがよいのでしょうか?
誰も「面白い!」と主張しているわけではありません。
でも、専門性を身につけるのに、数段飛び越えるようでは意味がない...。
ニューラルネットは、それだけでは「正しい出力」は得られない。魔法の杖ではないのだ。
ニューラルネットを使わなくても、ちゃんと結果が出るような取引戦略の正しい考え方が必要です。
それならニューラルネットは必要ないですね。