"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 74 1...676869707172737475767778798081...100 新しいコメント yu-sha 2011.11.29 20:07 #731 ウラン です。 実験をしてみましょう。1000ニューロン、1ニューロンあたり100コネクションのグリッドを作成し、ファイルサイズを投稿してください。~6MBytesまでネットワーク 100x1000x1 - フルメッシュ添付 ))さて、どうやって訓練するのか、教えてください。同じような大きさのネットワークは1種類だけ知っていますが、それは学習と保存を必要とせず、学習サンプルによって一度に形成され、それを愚直に記憶するものなのです。このようなネットワークは、SF映画のすべてのコンピュータを合わせてもGAで学習させることはできません:探索空間の次元は100 000というか、そういうネットワークは学習サンプルを記憶しているだけで、汎化ではなく、全体のスクリーンショットが得られると思います。建築物の選択にはもっと慎重になるべき )) ファイル: UrainTask.zip 93 kb Mykola Demko 2011.11.29 20:17 #732 yu-sha さん。~6MBytesです。添付 ))さあ、教えてください、どうやって教えるんですか? はい、ちょうど問題を教えるために、私はUGA 100 000パラメータの許容タスクであることを上に書いた、私はそのトライフルが、実現可能であることを言うことはできません。しかし、大きさはごく普通です、もう心配する必要はありません、質問は終了ですと言われるように。 yu-sha 2011.11.29 20:23 #733 ウラン です。UGAの場合、10万個のパラメータはかなり許容範囲の広いタスクだと上に書きましたが、簡単とは言えませんが、実現可能なタスクです。しかし、サイズはごく普通です、もう気にする必要はないでしょう、よく言われるように、問題は解決しています。各パラメータの分解能を0.1に設定しても、完全探索の全組み合わせの数は10^100000通りGAという発想がとても冴えてるんですね。 Mykola Demko 2011.11.29 20:36 #734 yu-sha: 各パラメータの離散度を0.1に設定しても、完全探索の全組み合わせ数は10^100000通りGAという発想がとても冴えてるUGAは、探索空間をグラフに分割する必要のあるバイナリアルゴリズムではありません。UGAは、すべての測定で同時に並列検索を行い、自動的に段階的にステップを減らしていくので、ロバストな結果に到達するまでの合理的な時間の可能性を与え、さらにグリッドを訓練する 必要はなく、さらに再トレーニングが行われることになります。通常、10000~50000FFでは、パラメータ数に関係なく結果が得られる。 Serj 2011.11.29 21:55 #735 yu-sha さん。~6MBytesまでネットワーク 100x1000x1 - フルメッシュ添付 ))さて、どうやって訓練するのか、教えてください。同じような大きさのネットワークは1種類だけ知っていますが、それは学習と保存を必要とせず、学習されたサンプリングによって一度に形成され、それを愚直に記憶していくものです。このようなネットワークは、SF映画のすべてのコンピュータを合わせてもGAで学習させることはできません:探索空間の次元は100 000というか、そういうネットワークは学習サンプルを記憶しているだけで、汎化するどころか、全体のスクリーンショットを撮られることになると思うのです。建築物の選択にはもっと慎重になるべき ))そんなネットワークは誰も必要としていない(無駄である)ことは明らかである。だから、自由なアーキテクチャ(スケーラブル)なんです。実験のため、N450を搭載した私の小さな端末でGAを使って教えてみます。何を教えるか、どれくらいの例題があるか、エラーはないか、などなど。P.S. 勉強しながら、皆さんのコードも勉強させていただきます。 Mykola Demko 2011.11.29 22:01 #736 彼女.人間:そんなネットワークは誰も必要としていない(役に立たない)ことは明らかです。だから、フリーアーキテクチャ(拡張性)の話なんです。実験のために、N450の小型アイアンでGAを使ったティーチングをやってみることにします。何を教えるか、どれくらいの例題があるか、エラーはないか、などなど。 どのようなGAを教えるのですか? Andrey Dik 2011.11.29 22:01 #737 ウラン です。私は虹のアイデアを持っていませんが、このアルゴリズムを使用することについての実用的な知識、UGAは、探索空間をグラフに分割する必要があるバイナリアルゴリズムではありません。UGAは、すべての測定値に対して同時に並列探索を行い、段階的に自動的にステップを減らしていくので、合理的な時間でロバストな結果に到達する機会を与え、さらにグリッドの学習も必要なく、さらに再学習が必要になる。 通常、10000~50000FFでは、パラメータ数に関係なく結果が得られる。認識された。太字で強調されているのは、ロバストな結果です(必ずしも絶対的な最大値ではありません)。要は、巨大なサイズのメッシュを学習させることが可能なのです。そして、これらの巨大なメッシュが必要かどうかは、それぞれのノードに任されている。:) Mykola Demko 2011.11.29 22:09 #738 ジュ認識された。太字で強調されているのは、ロバストな結果です(必ずしも絶対的な最大値ではありません)。要は、巨大なサイズのメッシュを学習させることが可能なのです。そして、この巨大なメッシュが必要かどうかは、個々のノードの良心に委ねられる。:)完全にバラ色の展望を描くわけではありませんが、FFの実行回数は(ロバストな解を得るために)ほとんど増えないものの、アルゴリズムが桁違いに多くの配列を実行しなければならない(つまり実際にはより多くの演算を行う)ため、結果を求める時間は増加しますが、最初は直線的に増加し、次に、テスト中にFFの速度、特にFFの一部としてのNS速度が常に大きなネックになっていましたが、GPU上のNSの加速を真剣に行い、GAでは一般に答えを見つける速度を加速する予定です。 Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования www.mql5.com Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования - Документация по MQL5 Serj 2011.11.29 22:09 #739 ウラン です。 また、どのようなGAを教えるのですか?重要なのは、どれかということではありません。ただ、こんな弱小ハードでGAが引っ張るかどうかが気になる。jooアルゴリズムの軽量化版。 Mykola Demko 2011.11.29 22:17 #740 彼女.人間:重要なのは、どれかということではありません。ただ、こんな弱小ハードのGAが引っ張るかどうか?jooアルゴリズムの軽量版。 以前、GAで小さなグリッドを学習するテスターを作ろうと思ったことがあります。) 1...676869707172737475767778798081...100 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
実験をしてみましょう。1000ニューロン、1ニューロンあたり100コネクションのグリッドを作成し、ファイルサイズを投稿してください。
~6MBytesまで
ネットワーク 100x1000x1 - フルメッシュ
添付 ))
さて、どうやって訓練するのか、教えてください。
同じような大きさのネットワークは1種類だけ知っていますが、それは学習と保存を必要とせず、学習サンプルによって一度に形成され、それを愚直に記憶するものなのです。
このようなネットワークは、SF映画のすべてのコンピュータを合わせてもGAで学習させることはできません:探索空間の次元は100 000
というか、そういうネットワークは学習サンプルを記憶しているだけで、汎化ではなく、全体のスクリーンショットが得られると思います。
建築物の選択にはもっと慎重になるべき ))
~6MBytesです。
添付 ))
さあ、教えてください、どうやって教えるんですか?
はい、ちょうど問題を教えるために、私はUGA 100 000パラメータの許容タスクであることを上に書いた、私はそのトライフルが、実現可能であることを言うことはできません。
しかし、大きさはごく普通です、もう心配する必要はありません、質問は終了ですと言われるように。
UGAの場合、10万個のパラメータはかなり許容範囲の広いタスクだと上に書きましたが、簡単とは言えませんが、実現可能なタスクです。
しかし、サイズはごく普通です、もう気にする必要はないでしょう、よく言われるように、問題は解決しています。
各パラメータの分解能を0.1に設定しても、完全探索の全組み合わせの数は10^100000通り
GAという発想がとても冴えてるんですね。
各パラメータの離散度を0.1に設定しても、完全探索の全組み合わせ数は10^100000通り
GAという発想がとても冴えてる
UGAは、探索空間をグラフに分割する必要のあるバイナリアルゴリズムではありません。
UGAは、すべての測定で同時に並列検索を行い、自動的に段階的にステップを減らしていくので、ロバストな結果に到達するまでの合理的な時間の可能性を与え、さらにグリッドを訓練する 必要はなく、さらに再トレーニングが行われることになります。通常、10000~50000FFでは、パラメータ数に関係なく結果が得られる。
~6MBytesまで
ネットワーク 100x1000x1 - フルメッシュ
添付 ))
さて、どうやって訓練するのか、教えてください。
同じような大きさのネットワークは1種類だけ知っていますが、それは学習と保存を必要とせず、学習されたサンプリングによって一度に形成され、それを愚直に記憶していくものです。
このようなネットワークは、SF映画のすべてのコンピュータを合わせてもGAで学習させることはできません:探索空間の次元は100 000
というか、そういうネットワークは学習サンプルを記憶しているだけで、汎化するどころか、全体のスクリーンショットを撮られることになると思うのです。
建築物の選択にはもっと慎重になるべき ))
そんなネットワークは誰も必要としていない(無駄である)ことは明らかである。だから、自由なアーキテクチャ(スケーラブル)なんです。
実験のため、N450を搭載した私の小さな端末でGAを使って教えてみます。何を教えるか、どれくらいの例題があるか、エラーはないか、などなど。
P.S. 勉強しながら、皆さんのコードも勉強させていただきます。
そんなネットワークは誰も必要としていない(役に立たない)ことは明らかです。だから、フリーアーキテクチャ(拡張性)の話なんです。
実験のために、N450の小型アイアンでGAを使ったティーチングをやってみることにします。何を教えるか、どれくらいの例題があるか、エラーはないか、などなど。
私は虹のアイデアを持っていませんが、このアルゴリズムを使用することについての実用的な知識、UGAは、探索空間をグラフに分割する必要があるバイナリアルゴリズムではありません。
UGAは、すべての測定値に対して同時に並列探索を行い、段階的に自動的にステップを減らしていくので、合理的な時間でロバストな結果に到達する機会を与え、さらにグリッドの学習も必要なく、さらに再学習が必要になる。 通常、10000~50000FFでは、パラメータ数に関係なく結果が得られる。
認識された。太字で強調されているのは、ロバストな結果です(必ずしも絶対的な最大値ではありません)。
要は、巨大なサイズのメッシュを学習させることが可能なのです。そして、これらの巨大なメッシュが必要かどうかは、それぞれのノードに任されている。:)
認識された。太字で強調されているのは、ロバストな結果です(必ずしも絶対的な最大値ではありません)。
要は、巨大なサイズのメッシュを学習させることが可能なのです。そして、この巨大なメッシュが必要かどうかは、個々のノードの良心に委ねられる。:)
完全にバラ色の展望を描くわけではありませんが、FFの実行回数は(ロバストな解を得るために)ほとんど増えないものの、アルゴリズムが桁違いに多くの配列を実行しなければならない(つまり実際にはより多くの演算を行う)ため、結果を求める時間は増加しますが、最初は直線的に増加し、次に、テスト中にFFの速度、特にFFの一部としてのNS速度が常に大きなネックになっていましたが、GPU上のNSの加速を真剣に行い、GAでは一般に答えを見つける速度を加速する予定です。
また、どのようなGAを教えるのですか?
重要なのは、どれかということではありません。ただ、こんな弱小ハードでGAが引っ張るかどうかが気になる。
jooアルゴリズムの軽量化版。
重要なのは、どれかということではありません。ただ、こんな弱小ハードのGAが引っ張るかどうか?
jooアルゴリズムの軽量版。