"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 74

 
ウラン です。
実験をしてみましょう。1000ニューロン、1ニューロンあたり100コネクションのグリッドを作成し、ファイルサイズを投稿してください。

~6MBytesまで

ネットワーク 100x1000x1 - フルメッシュ

添付 ))

さて、どうやって訓練するのか、教えてください。

同じような大きさのネットワークは1種類だけ知っていますが、それは学習と保存を必要とせず、学習サンプルによって一度に形成され、それを愚直に記憶するものなのです。

このようなネットワークは、SF映画のすべてのコンピュータを合わせてもGAで学習させることはできません:探索空間の次元は100 000

というか、そういうネットワークは学習サンプルを記憶しているだけで、汎化ではなく、全体のスクリーンショットが得られると思います。

建築物の選択にはもっと慎重になるべき ))

ファイル:
UrainTask.zip  93 kb
 
yu-sha さん。

~6MBytesです。

添付 ))

さあ、教えてください、どうやって教えるんですか?

はい、ちょうど問題を教えるために、私はUGA 100 000パラメータの許容タスクであることを上に書いた、私はそのトライフルが、実現可能であることを言うことはできません。

しかし、大きさはごく普通です、もう心配する必要はありません、質問は終了ですと言われるように。

 
ウラン です。

UGAの場合、10万個のパラメータはかなり許容範囲の広いタスクだと上に書きましたが、簡単とは言えませんが、実現可能なタスクです。

しかし、サイズはごく普通です、もう気にする必要はないでしょう、よく言われるように、問題は解決しています。

各パラメータの分解能を0.1に設定しても、完全探索の全組み合わせの数は10^100000通り

GAという発想がとても冴えてるんですね。

 
yu-sha:

各パラメータの離散度を0.1に設定しても、完全探索の全組み合わせ数は10^100000通り

GAという発想がとても冴えてる

UGAは、探索空間をグラフに分割する必要のあるバイナリアルゴリズムではありません。

UGAは、すべての測定で同時に並列検索を行い、自動的に段階的にステップを減らしていくので、ロバストな結果に到達するまでの合理的な時間の可能性を与え、さらにグリッドを訓練する 必要はなく、さらに再トレーニングが行われることになります。通常、10000~50000FFでは、パラメータ数に関係なく結果が得られる。

 
yu-sha さん。

~6MBytesまで

ネットワーク 100x1000x1 - フルメッシュ

添付 ))

さて、どうやって訓練するのか、教えてください。

同じような大きさのネットワークは1種類だけ知っていますが、それは学習と保存を必要とせず、学習されたサンプリングによって一度に形成され、それを愚直に記憶していくものです。

このようなネットワークは、SF映画のすべてのコンピュータを合わせてもGAで学習させることはできません:探索空間の次元は100 000

というか、そういうネットワークは学習サンプルを記憶しているだけで、汎化するどころか、全体のスクリーンショットを撮られることになると思うのです。

建築物の選択にはもっと慎重になるべき ))

そんなネットワークは誰も必要としていない(無駄である)ことは明らかである。だから、自由なアーキテクチャ(スケーラブル)なんです。

実験のため、N450を搭載した私の小さな端末でGAを使って教えてみます。何を教えるか、どれくらいの例題があるか、エラーはないか、などなど。

P.S. 勉強しながら、皆さんのコードも勉強させていただきます。

 
彼女.人間:

そんなネットワークは誰も必要としていない(役に立たない)ことは明らかです。だから、フリーアーキテクチャ(拡張性)の話なんです。

実験のために、N450の小型アイアンでGAを使ったティーチングをやってみることにします。何を教えるか、どれくらいの例題があるか、エラーはないか、などなど。

どのようなGAを教えるのですか?
 
ウラン です。

私は虹のアイデアを持っていませんが、このアルゴリズムを使用することについての実用的な知識、UGAは、探索空間をグラフに分割する必要があるバイナリアルゴリズムではありません。

UGAは、すべての測定値に対して同時に並列探索を行い、段階的に自動的にステップを減らしていくので、合理的な時間でロバストな結果に到達する機会を与え、さらにグリッドの学習も必要なく、さらに再学習が必要になる。 通常、10000~50000FFでは、パラメータ数に関係なく結果が得られる。

認識された。太字で強調されているのは、ロバストな結果です(必ずしも絶対的な最大値ではありません)。

要は、巨大なサイズのメッシュを学習させることが可能なのです。そして、これらの巨大なメッシュが必要かどうかは、それぞれのノードに任されている。:)

 
ジュ

認識された。太字で強調されているのは、ロバストな結果です(必ずしも絶対的な最大値ではありません)。

要は、巨大なサイズのメッシュを学習させることが可能なのです。そして、この巨大なメッシュが必要かどうかは、個々のノードの良心に委ねられる。:)

完全にバラ色の展望を描くわけではありませんが、FFの実行回数は(ロバストな解を得るために)ほとんど増えないものの、アルゴリズムが桁違いに多くの配列を実行しなければならない(つまり実際にはより多くの演算を行う)ため、結果を求める時間は増加しますが、最初は直線的に増加し、次に、テスト中にFFの速度、特にFFの一部としてのNS速度が常に大きなネックになっていましたが、GPU上のNSの加速を真剣に行い、GAでは一般に答えを見つける速度を加速する予定です。

Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
  • www.mql5.com
Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования - Документация по MQL5
 
ウラン です。
また、どのようなGAを教えるのですか?

重要なのは、どれかということではありません。ただ、こんな弱小ハードでGAが引っ張るかどうかが気になる。

jooアルゴリズムの軽量化版。

 
彼女.人間:

重要なのは、どれかということではありません。ただ、こんな弱小ハードのGAが引っ張るかどうか?

jooアルゴリズムの軽量版。

以前、GAで小さなグリッドを学習するテスターを作ろうと思ったことがあります。)