"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 71

 
ジュ

ニューロントレーニングをミクロレベル(GAでの独立した配列処理サイクル、ネットワークの個々のニューロンの計算など)とマクロレベル(PF全体)で考えると、最初のものには何の疑問も問題もありません。すべてが並列で実行され、GPUでもうまく動作するでしょう。

しかし、マクロレベルでは問題があります。まず、GPUで扱う情報量の限界で無理なのでは?通常のテスターとクラウド(各マクロレベルが別々のエージェントに転送され、そこでマイクロレベルで処理される-もちろんホストが許可すればですが)を使って、それを回避することができます。しかし、外部GAを使うためにテスターを外部で制御するツールがないのです。

そのため、ミクロレベルの加速に限定せざるを得ません。また、メッシュやGA自体が互いに独立した計算に溢れているので、加速度も非常にまっとうなものになるでしょう。

UGA 自体については、 OpenCL 用のファインチューニングに 触れなければ、実質的に何も改善されません(コードの断片だけかもしれませんが、記事中のアルゴリズム議論スレッドに参加された方々のおかげで、何の役にも立たないでしょう)。UGAの設定は、トレーニングネットに特化して選んでみるしかない。


最近のGPUは1GB以上のRAMを搭載しています。

これ以上の規模のトレーニングサンプルは考えられません。

マクロレベルでいいんです~テスト済み )

GA自体はCPUで、重いFFの演算はGPUで、というアーキテクチャが妥当でしょう。

 
彼女.人間:

MT5で使用するための小さな例を教えてください。


何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、・・・??
 
yu-sha さん。

最近のGPUは1GB以上のRAMを搭載している

これ以上の規模のトレーニングサンプルは考えられません。

私の記憶が間違っていなければ、最近のグラフィックカードには2種類のRAMがあります。共有のRAMは数GByteもありかなり遅いもので、個々のGPUプロセッサが持つものは高速ですが、数百KBと少量です。私の理由は、ここに問題が発生する可能性があるからです。

yu-sha さん。

マクロレベルでは何も問題はない - テスト済み )

でも、あなたがそう言うなら、その言葉を信じて、今は冷静です。:)

yu-sha さん。

GAでは、GA自体はCPUで、重いFFの計算はGPUで、というアーキテクチャが合理的です

まあ、よく言われるようにテクニックの問題ですね。そういうやり方もあるんですね。私の知る限り、OpenCLでは、CPUとGPUのどちらのコアで計算を行うかをコードで選択することができます。

 
yu-sha さん。
何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、・・・??
緩やかな(完全にはつながっていない)ネットワーク・アーキテクチャをどのように設定するか、どこにフィードインし、どこにテイクアウトするか、どこにウェイトを置くか。
 
ジュ

私の記憶違いでなければ、最近のグラフィックカードには、数GBバイトもあるかなり遅い共有メモリと、個々のGPUプロセッサが持つ、高速だが数百KBの少量の動作メモリの2種類があります。そこに問題があるのではないかと推論したのです。

一般的な「遅い」は、CPUのDDRの完全アナログ(〜0.75〜1.00GHz、あまり遅くはない)

Fastは、CPUのキャッシュメモリと対をなすものである。

GPUは、CPUとは異なり、まさにオンチップ(キャッシュ)メモリで管理することができます(間違っているかもしれませんが、なぜかこのような問題に出くわしたことはありません)。

しかし、これらはすべて追加の最適化の問題であり、あなたはそれらなしで生きることができます。

 

彼女.人間:

yu-sha さん。
何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、...?
緩やかな(完全には接続されていない)ネットワークアーキテクチャをどのように設定するか、どこにフィードインし、どこにテイクアウトするか、どこにウェイトを置くか。

そうそう、プッシュ型の例が必要で、それから考えよう。

標準的なGAとクラウドを使えば、FFの計算を並行させることができるだろう。特にレナートが約束したようにね。

まさか、テスターGAは64ビットの検索が限界で、学習用の重みは各重みに対して16~64ビット必要で(検索精度に依存)、重みは最大で・・・何千、何十万になることもあるそうです。UGAはかなりうまく処理できますが、テスターはそうではありません。

つまり、MQがGAのアップグレードを依頼するか(これは2年間失敗している)、UGAがクラスタよりずっと遅くなるかのどちらかだ。

 
yu-sha さん。

一般的な「遅い」 - これはDDRのフルCPUアナログです(〜0.75〜1.00GHz - あまり遅くない)

高速 - CPUのキャッシュメモリと対になるものです。

GPUは、CPUとは異なり、まさにオンチップ(キャッシュ)メモリで管理することができます(間違っているかもしれませんが、なぜかこのような問題に出くわしたことはありません)。

しかし、これらはすべて追加的な最適化の問題であり、なくても生きていけます

ポイント、メモリ、およびGPUにオブジェクトロジックのねじれを実装することは困難であろう、私はGPUの計算機能(これはマイクロレベルについてです)がある内のオブジェクトの複雑な相互作用としてNSを実装する方法はかなり良いアイデアを持っているが、私はこの複雑なオブジェクトコードは重み(マクロレベル)の異なるセットといくつかのFFとしてGPUを滑るようにそれらの全体のNSを想像することはできません?

この質問は修辞的なもので、もし誰かが想像してくれたら、私はそれを聞いても構わない。

 

面白いことを思いつきました。

MQ APIにクラスタのタスクを設定 するように依頼するのはどうでしょうか?

を使えば、テスターを介さずに直接MQL5からタスクを配布することができます。もちろん、多くのチェック項目を設定しなければならず、複雑な作業ではありますが、何とかなるものなのです。

すでにマスターしているのですが、少し工夫が必要です。

 
ウラン です。

そうそう、プッシュ型の例が必要で、それから考えよう。

例1.

タスク・ステートメント

- インジケータのアルゴリズムを復元する必要がありますが、そのソースは利用できません(またはそれは "再描画 "インジケータです - ところで、それはNSの悪い教師ではありません)、我々は各バー上の値を知っています。

- 指標となる数値が範囲(-1;+1)であること。

入力です。

- このインジケータが過去10回の終値を 使用していることは知っている(疑っている?


例2.

問題提起

- 履歴の延長線上で最適な(Profit/MaxDDを最大化する)ニューラルネットワークの取引戦略を見つける必要があります。

入力データです。

- 正規化MACD(13,35), MACD(50,100), RSI(8), RSI(13)

例3.

タスク・ステートメント

- ニューラルネットワークに乗算表を教えること

入力データです。

- x,yの乗数で範囲(-1;+1)を指定します。

ご自分の例を提案していただき、可能であれば、XMLでネットワーク・アーキテクチャをお見せします。

 
yu-sha さん。

自分の例を提案し、可能であれば、XMLでネットワーク・アーキテクチャを示すことができる

そして最も重要なのは、このアーキテクチャがどのように作られたのか、XMLファイルがどのように生成されるのかのソースコードです。