"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 38 1...313233343536373839404142434445...100 新しいコメント Mykola Demko 2011.10.26 20:51 #371 gpwr 教師なしで、ランダムに選んだ10000〜40000区間の歴史を提示し、フィルタを学習させる(反復回数は同じ)。学習はとても速いです。コンピュータにもよりますが、20000パッチの履歴に対して1万個のフィルタを学習させるのに、360GPUのCUDAプロセッサでは1〜2分、4Intelプロセッサでは16トラックで約1時間、1プロセッサ2トラックの私のノートパソコンでは3〜4時間かかります。ここでは時間は関係ないんですけどね。このようなフィルタートレーニングに1~2日必要だとしても、各クオート(EURUSD、USDJPYなど)に対して1回しか行われません。一度学習させたフィルタは変更せず、新しい価格のフィルタリングに使用する。フィルタリング自体は非常に高速で、価格とフィルタリング係数の積の合計を計算します。私の記憶では、各セグメントを数回通過させないと、グリッドは学習したとみなされないと思います。 問題は、それぞれの事例を何回提出しなければならないかです。 Vladimir 2011.10.26 21:00 #372 ウラン です。 私の記憶では、グリッドが訓練されたとみなされるためには、各セクションを何度も通過する必要があります。 問題は、各例題を何回提出しなければならないかです。 歴史の同じ部分を何度も見る必要はないのです。それに、すべてのパートを一度は経験する必要はないのです。歴史の一部分を省略することができます。フィルタは、基本的にランダムなサンプルで引用の統計を取ります。ここではサンプルのランダム性が重要なポイントです。履歴全体を順次スキャンした場合、フィルターは履歴の最初のほうの統計に傾きます。 Mykola Demko 2011.10.26 21:02 #373 gpwr 同じところを何度も見る必要はないのです。それに、すべてのパートを一度は経験する必要はないのです。歴史の一部分を省略することができます。フィルタは、基本的にランダムなサンプルから引用統計を収集します。 いや、フィルターの話だろ、これは余談だと言っただろう、NSの学習アルゴリズムの話だ。 Vladimir 2011.10.26 21:16 #374 Urain: いや、フィルターの話でしょう、質問が横着だと警告したんですよ、NS学習アルゴリズムの話です。 それなら、本当にわからない。私が提案するネットワークは、数層のフィルターを持つデータ変換モジュールと、分類モジュールの2つで構成されています。最初のモジュールのフィルターは、教師なしで全履歴を一度学習し、その後のネットワークのすべてのアプリケーションのために記憶される。つまり、最初のモジュールの入力には価格パターンが含まれ、2番目のモジュールの出力には既知のシグナルである買い(+1)、売り(-1)、ホールド(0)が含まれるのです。2番目のモジュールは,フィードフォワードネットワーク(FFNまたはMLP),サポートベクターマシン(SVM),ラジアルベーシス関数(RBF)など,我々が知っている任意のニューラルネットワークを使用することができます.このモジュールの学習曲線は、最初のフィルタリングモジュールがない場合と同じように長いです。先ほど説明したように、私の考えでは、2つ目のモジュールは1つ目のモジュールほど重要ではありません。引用符をネットワークに供給する前に、まず正しく変換(フィルター)する必要があります。最もシンプルなフィルタリング方式はМАです。他の指標を適用することも可能であり、ほとんどのニューラルネットワークのオペレータが既に行っていることである。私は、この「指標」(私のネットワークの最初のモジュール)の出力で、同じだが歪んだパターンが同じコードで記述されるような引用の変換のための生物学的フィルタに似たいくつかのフィルタ層から成る特別な「指標」を提案します。そして、これらのコードを周知の方法で第2モジュールに分類することが可能である。 NeuroOpenSource 2011.10.26 21:21 #375 一般コース (http://www.intuit.ru/department/expert/neuro/ からは登録が必要です。登録しない場合は -Nic_Touch paszdraste01) 2.神経細胞のモデル 3. 2クラス間の線形分割問題4. 2クラス間の非線形分離問題5. ニューラルネットワークの種類とその機能の構成方法6.シグモイド型多層 膜ネットワーク7. 勾配ネットワーク学習アルゴリズム8. 大域的最適化の方法9. ラジアルニューラルネットワーク10. 連想記憶装置としてのリカレントネットワーク11. リカレントネットワークによる組合せ最適化問題の解法12. ペルセプトロンに基づくリカレントネットワーク。13. 自己組織化(自己学習)ニューラルネットワーク14. アダプティブ・レゾナンス・セオリー(ART)15. ファジィとハイブリッドニューラルネットワーク16. ニューラルネットワークのコントラスト(縮小)17.ニューラル・コンピュータのハードウエア実装方法 講演会 http://www.softcraft.ru/neuro/ni/p00.shtmlマッピング例 http://www.statsoft.ru/home/products/version6/snn.htmモデルや トレーニング方法に関する書籍 Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ www.intuit.ru Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей. ファイル: Books.zip 14709 kb [アーカイブ!】純粋数学、物理学、化学など:トレードとは一切関係ない脳トレ問題集 [Archive!] Pure mathematics, physics, Question - Open Order Mykola Demko 2011.10.26 21:28 #376 gpwrそれじゃあ、本当にわからないよ。私が提案するネットワークは、数層のフィルターを持つデータ変換モジュールと、分類モジュールの2つで構成されています。最初のモジュールのフィルターは、教師なしで全履歴を一度学習し、その後のネットワークのすべてのアプリケーションのために記憶される。 フィルタの学習が完了したら、2番目のモジュールに教師として、すなわち入力に価格パターン、出力に既知の買い(+1)、売り(-1)、保持(0)シグナルを教示します。2番目のモジュールは,フィードフォワードネットワーク(FFNまたはMLP),サポートベクターマシン(SVM),ラジアルベーシス関数(RBF)など,我々が知っているあらゆるニューラルネットワークを使用することができます.このモジュールの学習曲線は、最初のフィルタリングモジュールがない場合と同じように長いです。先ほど説明したように、私の考えでは、2つ目のモジュールは1つ目のモジュールほど重要ではありません。引用符をネットワークに供給する前に、まず正しく変換(フィルター)する必要があります。最もシンプルなフィルタリング方式はМАです。他の指標を適用することも可能であり、ほとんどのニューラルネットワークのオペレータが既に行っていることである。私は、この「指標」(私のネットワークの最初のモジュール)の出力で、同じだが歪んだパターンが同じコードで記述されるような引用の変換のための生物学的フィルタに似たいくつかのフィルタ層からなる特別な「指標」を提案します。そして、これらのコードを周知の方法で第2モジュールに分類することが可能である。 私が正しく理解していれば、フィルターそのものとその学習は、前処理モジュールに帰着させることができます。 Vladimir 2011.10.26 21:35 #377 ウラン です。 私が正しく理解していれば、フィルターそのものとその学習は、前処理モジュールに帰着させることができます。 そう、最初のモジュール、一生に一度の自己学習。 --- 2011.10.26 22:39 #378 ウラン です。 アレックスと、どうやって14Mを添付することができたのか、モデレーターの特権か、それとも上限が増えたのか? 16Mまでと書いてある。おそらく増えたと思います。 TheXpert 2011.10.26 23:04 #379 ほーら、第15講は冒頭で話したファジーロジック・ネットワークだ。 Mykola Demko 2011.10.26 23:26 #380 u- アクティベータ入力y- 追加の力率。//+------------------------------------------------------------------+ double sigma0(double u,double y=1.)// [0;1] { return(1./(1.+exp(-y*u))); } //+------------------------------------------------------------------+ double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид { return((2./(1.+exp(-y*u)))-1.); } //+------------------------------------------------------------------+ double func1(double u,double y=1.)// [-1;1] { return(y*u/sqrt(1.+y*y*u*u)); } //+------------------------------------------------------------------+ double func2(double u,double y=1.)// [-1;1] { return(sin(M_PI_2*y*u)); } //+------------------------------------------------------------------+ double func3(double u,double y=1.)// [-1;1] { return(2./M_PI*atan(y*u)); } //+------------------------------------------------------------------+ double func4(double u,double y=1.)// [-1;1] { return(y*u-y*y*y/3.*u*u*u); } //+------------------------------------------------------------------+ double line0(double u,double y=1.)// [0;1] линейный активатор { double v=y*u; return((v>1.?1.:v<0.?0.:v)); } //+------------------------------------------------------------------+ double line1(double u,double y=1.)// [-1;1] { double v=y*u; return((v>1.?1.:v<-1.?-1.:v)); } //+------------------------------------------------------------------+ double Mline(double v)// [DBL_MIN;DBL_MAX] { return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v)); } //+------------------------------------------------------------------+ 1...313233343536373839404142434445...100 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
教師なしで、ランダムに選んだ10000〜40000区間の歴史を提示し、フィルタを学習させる(反復回数は同じ)。学習はとても速いです。コンピュータにもよりますが、20000パッチの履歴に対して1万個のフィルタを学習させるのに、360GPUのCUDAプロセッサでは1〜2分、4Intelプロセッサでは16トラックで約1時間、1プロセッサ2トラックの私のノートパソコンでは3〜4時間かかります。ここでは時間は関係ないんですけどね。このようなフィルタートレーニングに1~2日必要だとしても、各クオート(EURUSD、USDJPYなど)に対して1回しか行われません。一度学習させたフィルタは変更せず、新しい価格のフィルタリングに使用する。フィルタリング自体は非常に高速で、価格とフィルタリング係数の積の合計を計算します。
私の記憶では、各セグメントを数回通過させないと、グリッドは学習したとみなされないと思います。
問題は、それぞれの事例を何回提出しなければならないかです。
私の記憶では、グリッドが訓練されたとみなされるためには、各セクションを何度も通過する必要があります。
問題は、各例題を何回提出しなければならないかです。
同じところを何度も見る必要はないのです。それに、すべてのパートを一度は経験する必要はないのです。歴史の一部分を省略することができます。フィルタは、基本的にランダムなサンプルから引用統計を収集します。
いや、フィルターの話でしょう、質問が横着だと警告したんですよ、NS学習アルゴリズムの話です。
一般コース (http://www.intuit.ru/department/expert/neuro/ からは登録が必要です。登録しない場合は -Nic_Touch paszdraste01)
講演会 http://www.softcraft.ru/neuro/ni/p00.shtml
マッピング例 http://www.statsoft.ru/home/products/version6/snn.htm
モデルや トレーニング方法に関する書籍
gpwr
それじゃあ、本当にわからないよ。私が提案するネットワークは、数層のフィルターを持つデータ変換モジュールと、分類モジュールの2つで構成されています。最初のモジュールのフィルターは、教師なしで全履歴を一度学習し、その後のネットワークのすべてのアプリケーションのために記憶される。 フィルタの学習が完了したら、2番目のモジュールに教師として、すなわち入力に価格パターン、出力に既知の買い(+1)、売り(-1)、保持(0)シグナルを教示します。2番目のモジュールは,フィードフォワードネットワーク(FFNまたはMLP),サポートベクターマシン(SVM),ラジアルベーシス関数(RBF)など,我々が知っているあらゆるニューラルネットワークを使用することができます.このモジュールの学習曲線は、最初のフィルタリングモジュールがない場合と同じように長いです。先ほど説明したように、私の考えでは、2つ目のモジュールは1つ目のモジュールほど重要ではありません。引用符をネットワークに供給する前に、まず正しく変換(フィルター)する必要があります。最もシンプルなフィルタリング方式はМАです。他の指標を適用することも可能であり、ほとんどのニューラルネットワークのオペレータが既に行っていることである。私は、この「指標」(私のネットワークの最初のモジュール)の出力で、同じだが歪んだパターンが同じコードで記述されるような引用の変換のための生物学的フィルタに似たいくつかのフィルタ層からなる特別な「指標」を提案します。そして、これらのコードを周知の方法で第2モジュールに分類することが可能である。
私が正しく理解していれば、フィルターそのものとその学習は、前処理モジュールに帰着させることができます。
アレックスと、どうやって14Mを添付することができたのか、モデレーターの特権か、それとも上限が増えたのか?
u- アクティベータ入力
y- 追加の力率。