"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 71 1...646566676869707172737475767778...100 新しいコメント yu-sha 2011.11.29 14:47 #701 ジュニューロントレーニングをミクロレベル(GAでの独立した配列処理サイクル、ネットワークの個々のニューロンの計算など)とマクロレベル(PF全体)で考えると、最初のものには何の疑問も問題もありません。すべてが並列で実行され、GPUでもうまく動作するでしょう。しかし、マクロレベルでは問題があります。まず、GPUで扱う情報量の限界で無理なのでは?通常のテスターとクラウド(各マクロレベルが別々のエージェントに転送され、そこでマイクロレベルで処理される-もちろんホストが許可すればですが)を使って、それを回避することができます。しかし、外部GAを使うためにテスターを外部で制御するツールがないのです。そのため、ミクロレベルの加速に限定せざるを得ません。また、メッシュやGA自体が互いに独立した計算に溢れているので、加速度も非常にまっとうなものになるでしょう。UGA 自体については、 OpenCL 用のファインチューニングに 触れなければ、実質的に何も改善されません(コードの断片だけかもしれませんが、記事中のアルゴリズム議論スレッドに参加された方々のおかげで、何の役にも立たないでしょう)。UGAの設定は、トレーニングネットに特化して選んでみるしかない。最近のGPUは1GB以上のRAMを搭載しています。これ以上の規模のトレーニングサンプルは考えられません。マクロレベルでいいんです~テスト済み )GA自体はCPUで、重いFFの演算はGPUで、というアーキテクチャが妥当でしょう。 yu-sha 2011.11.29 14:56 #702 彼女.人間:MT5で使用するための小さな例を教えてください。 何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、・・・?? Andrey Dik 2011.11.29 14:58 #703 yu-sha さん。最近のGPUは1GB以上のRAMを搭載しているこれ以上の規模のトレーニングサンプルは考えられません。私の記憶が間違っていなければ、最近のグラフィックカードには2種類のRAMがあります。共有のRAMは数GByteもありかなり遅いもので、個々のGPUプロセッサが持つものは高速ですが、数百KBと少量です。私の理由は、ここに問題が発生する可能性があるからです。yu-sha さん。マクロレベルでは何も問題はない - テスト済み )でも、あなたがそう言うなら、その言葉を信じて、今は冷静です。:)yu-sha さん。GAでは、GA自体はCPUで、重いFFの計算はGPUで、というアーキテクチャが合理的です まあ、よく言われるようにテクニックの問題ですね。そういうやり方もあるんですね。私の知る限り、OpenCLでは、CPUとGPUのどちらのコアで計算を行うかをコードで選択することができます。 Serj 2011.11.29 15:06 #704 yu-sha さん。 何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、・・・?? 緩やかな(完全にはつながっていない)ネットワーク・アーキテクチャをどのように設定するか、どこにフィードインし、どこにテイクアウトするか、どこにウェイトを置くか。 yu-sha 2011.11.29 15:17 #705 ジュ私の記憶違いでなければ、最近のグラフィックカードには、数GBバイトもあるかなり遅い共有メモリと、個々のGPUプロセッサが持つ、高速だが数百KBの少量の動作メモリの2種類があります。そこに問題があるのではないかと推論したのです。一般的な「遅い」は、CPUのDDRの完全アナログ(〜0.75〜1.00GHz、あまり遅くはない)Fastは、CPUのキャッシュメモリと対をなすものである。GPUは、CPUとは異なり、まさにオンチップ(キャッシュ)メモリで管理することができます(間違っているかもしれませんが、なぜかこのような問題に出くわしたことはありません)。しかし、これらはすべて追加の最適化の問題であり、あなたはそれらなしで生きることができます。 Mykola Demko 2011.11.29 15:18 #706 彼女.人間:yu-sha さん。 何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、...? 緩やかな(完全には接続されていない)ネットワークアーキテクチャをどのように設定するか、どこにフィードインし、どこにテイクアウトするか、どこにウェイトを置くか。そうそう、プッシュ型の例が必要で、それから考えよう。標準的なGAとクラウドを使えば、FFの計算を並行させることができるだろう。特にレナートが約束したようにね。まさか、テスターGAは64ビットの検索が限界で、学習用の重みは各重みに対して16~64ビット必要で(検索精度に依存)、重みは最大で・・・何千、何十万になることもあるそうです。UGAはかなりうまく処理できますが、テスターはそうではありません。つまり、MQがGAのアップグレードを依頼するか(これは2年間失敗している)、UGAがクラスタよりずっと遅くなるかのどちらかだ。 Mykola Demko 2011.11.29 15:32 #707 yu-sha さん。一般的な「遅い」 - これはDDRのフルCPUアナログです(〜0.75〜1.00GHz - あまり遅くない)高速 - CPUのキャッシュメモリと対になるものです。GPUは、CPUとは異なり、まさにオンチップ(キャッシュ)メモリで管理することができます(間違っているかもしれませんが、なぜかこのような問題に出くわしたことはありません)。しかし、これらはすべて追加的な最適化の問題であり、なくても生きていけますポイント、メモリ、およびGPUにオブジェクトロジックのねじれを実装することは困難であろう、私はGPUの計算機能(これはマイクロレベルについてです)がある内のオブジェクトの複雑な相互作用としてNSを実装する方法はかなり良いアイデアを持っているが、私はこの複雑なオブジェクトコードは重み(マクロレベル)の異なるセットといくつかのFFとしてGPUを滑るようにそれらの全体のNSを想像することはできません?この質問は修辞的なもので、もし誰かが想像してくれたら、私はそれを聞いても構わない。 Mykola Demko 2011.11.29 15:39 #708 面白いことを思いつきました。 MQ APIにクラスタのタスクを設定 するように依頼するのはどうでしょうか?を使えば、テスターを介さずに直接MQL5からタスクを配布することができます。もちろん、多くのチェック項目を設定しなければならず、複雑な作業ではありますが、何とかなるものなのです。すでにマスターしているのですが、少し工夫が必要です。 yu-sha 2011.11.29 15:43 #709 ウラン です。そうそう、プッシュ型の例が必要で、それから考えよう。例1.タスク・ステートメント- インジケータのアルゴリズムを復元する必要がありますが、そのソースは利用できません(またはそれは "再描画 "インジケータです - ところで、それはNSの悪い教師ではありません)、我々は各バー上の値を知っています。- 指標となる数値が範囲(-1;+1)であること。入力です。- このインジケータが過去10回の終値を 使用していることは知っている(疑っている?例2.問題提起- 履歴の延長線上で最適な(Profit/MaxDDを最大化する)ニューラルネットワークの取引戦略を見つける必要があります。入力データです。- 正規化MACD(13,35), MACD(50,100), RSI(8), RSI(13)例3.タスク・ステートメント- ニューラルネットワークに乗算表を教えること入力データです。- x,yの乗数で範囲(-1;+1)を指定します。ご自分の例を提案していただき、可能であれば、XMLでネットワーク・アーキテクチャをお見せします。 "New Neural" is an 第三世代ニューラルネットワーク:深層ネットワーク Mykola Demko 2011.11.29 15:51 #710 yu-sha さん。 自分の例を提案し、可能であれば、XMLでネットワーク・アーキテクチャを示すことができるそして最も重要なのは、このアーキテクチャがどのように作られたのか、XMLファイルがどのように生成されるのかのソースコードです。 1...646566676869707172737475767778...100 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ニューロントレーニングをミクロレベル(GAでの独立した配列処理サイクル、ネットワークの個々のニューロンの計算など)とマクロレベル(PF全体)で考えると、最初のものには何の疑問も問題もありません。すべてが並列で実行され、GPUでもうまく動作するでしょう。
しかし、マクロレベルでは問題があります。まず、GPUで扱う情報量の限界で無理なのでは?通常のテスターとクラウド(各マクロレベルが別々のエージェントに転送され、そこでマイクロレベルで処理される-もちろんホストが許可すればですが)を使って、それを回避することができます。しかし、外部GAを使うためにテスターを外部で制御するツールがないのです。
そのため、ミクロレベルの加速に限定せざるを得ません。また、メッシュやGA自体が互いに独立した計算に溢れているので、加速度も非常にまっとうなものになるでしょう。
UGA 自体については、 OpenCL 用のファインチューニングに 触れなければ、実質的に何も改善されません(コードの断片だけかもしれませんが、記事中のアルゴリズム議論スレッドに参加された方々のおかげで、何の役にも立たないでしょう)。UGAの設定は、トレーニングネットに特化して選んでみるしかない。
最近のGPUは1GB以上のRAMを搭載しています。
これ以上の規模のトレーニングサンプルは考えられません。
マクロレベルでいいんです~テスト済み )
GA自体はCPUで、重いFFの演算はGPUで、というアーキテクチャが妥当でしょう。
MT5で使用するための小さな例を教えてください。
最近のGPUは1GB以上のRAMを搭載している
これ以上の規模のトレーニングサンプルは考えられません。
私の記憶が間違っていなければ、最近のグラフィックカードには2種類のRAMがあります。共有のRAMは数GByteもありかなり遅いもので、個々のGPUプロセッサが持つものは高速ですが、数百KBと少量です。私の理由は、ここに問題が発生する可能性があるからです。
マクロレベルでは何も問題はない - テスト済み )
でも、あなたがそう言うなら、その言葉を信じて、今は冷静です。:)
GAでは、GA自体はCPUで、重いFFの計算はGPUで、というアーキテクチャが合理的です
まあ、よく言われるようにテクニックの問題ですね。そういうやり方もあるんですね。私の知る限り、OpenCLでは、CPUとGPUのどちらのコアで計算を行うかをコードで選択することができます。
何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、・・・??
私の記憶違いでなければ、最近のグラフィックカードには、数GBバイトもあるかなり遅い共有メモリと、個々のGPUプロセッサが持つ、高速だが数百KBの少量の動作メモリの2種類があります。そこに問題があるのではないかと推論したのです。
一般的な「遅い」は、CPUのDDRの完全アナログ(〜0.75〜1.00GHz、あまり遅くはない)
Fastは、CPUのキャッシュメモリと対をなすものである。
GPUは、CPUとは異なり、まさにオンチップ(キャッシュ)メモリで管理することができます(間違っているかもしれませんが、なぜかこのような問題に出くわしたことはありません)。
しかし、これらはすべて追加の最適化の問題であり、あなたはそれらなしで生きることができます。
彼女.人間:
何の例?ニューラルネットワークの指標、ニューラルネットワークの戦略、...?
そうそう、プッシュ型の例が必要で、それから考えよう。
まさか、テスターGAは64ビットの検索が限界で、学習用の重みは各重みに対して16~64ビット必要で(検索精度に依存)、重みは最大で・・・何千、何十万になることもあるそうです。UGAはかなりうまく処理できますが、テスターはそうではありません。
つまり、MQがGAのアップグレードを依頼するか(これは2年間失敗している)、UGAがクラスタよりずっと遅くなるかのどちらかだ。
一般的な「遅い」 - これはDDRのフルCPUアナログです(〜0.75〜1.00GHz - あまり遅くない)
高速 - CPUのキャッシュメモリと対になるものです。
GPUは、CPUとは異なり、まさにオンチップ(キャッシュ)メモリで管理することができます(間違っているかもしれませんが、なぜかこのような問題に出くわしたことはありません)。
しかし、これらはすべて追加的な最適化の問題であり、なくても生きていけます
ポイント、メモリ、およびGPUにオブジェクトロジックのねじれを実装することは困難であろう、私はGPUの計算機能(これはマイクロレベルについてです)がある内のオブジェクトの複雑な相互作用としてNSを実装する方法はかなり良いアイデアを持っているが、私はこの複雑なオブジェクトコードは重み(マクロレベル)の異なるセットといくつかのFFとしてGPUを滑るようにそれらの全体のNSを想像することはできません?
この質問は修辞的なもので、もし誰かが想像してくれたら、私はそれを聞いても構わない。
面白いことを思いつきました。
MQ APIにクラスタのタスクを設定 するように依頼するのはどうでしょうか?
を使えば、テスターを介さずに直接MQL5からタスクを配布することができます。もちろん、多くのチェック項目を設定しなければならず、複雑な作業ではありますが、何とかなるものなのです。
すでにマスターしているのですが、少し工夫が必要です。
そうそう、プッシュ型の例が必要で、それから考えよう。
例1.
タスク・ステートメント
- インジケータのアルゴリズムを復元する必要がありますが、そのソースは利用できません(またはそれは "再描画 "インジケータです - ところで、それはNSの悪い教師ではありません)、我々は各バー上の値を知っています。
- 指標となる数値が範囲(-1;+1)であること。
入力です。
- このインジケータが過去10回の終値を 使用していることは知っている(疑っている?
例2.
問題提起
- 履歴の延長線上で最適な(Profit/MaxDDを最大化する)ニューラルネットワークの取引戦略を見つける必要があります。
入力データです。
- 正規化MACD(13,35), MACD(50,100), RSI(8), RSI(13)
例3.
タスク・ステートメント
- ニューラルネットワークに乗算表を教えること
入力データです。
- x,yの乗数で範囲(-1;+1)を指定します。
ご自分の例を提案していただき、可能であれば、XMLでネットワーク・アーキテクチャをお見せします。
自分の例を提案し、可能であれば、XMLでネットワーク・アーキテクチャを示すことができる
そして最も重要なのは、このアーキテクチャがどのように作られたのか、XMLファイルがどのように生成されるのかのソースコードです。