"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 21 1...141516171819202122232425262728...100 新しいコメント TheXpert 2011.10.22 22:15 #201 セルゲイアンドレイ(TheExpert)の、このアイデアのユートピア性についての感情は、雇われた専門家、プロジェクト管理者、そして参加者の最終的なコンシリウムが評決を発表するまで、脇に置いておくべきだね。その間、この話題はテーブルの上に置かれたままです。そして結果として、少なくとも似たようなことを達成するために、目標を調整する必要があるのです。お前、俺のこと完全に理解してないみたいだな。私は地に足がついていない、悲観的な面もあるんです。そう、図書館はレゴのセットのように、好きなものを組み立てることができるユニバーサルなものであるべきなのです。だから、問題なし!でも、それぞれを別々に教えてください。機能的にはできる、協調訓練は地獄か、XORを覚えるのに1時間かかる不器用なモンスター。そうですね、テンプレートの専門家が必要なライブラリは、使いやすいものであるべきです。ノンプログラマーでも使えるほど、使いやすい。 理論的には、簡素化とノンプログラマーのために、いくつかのテンプレートEAを作成し、それらのデータフィードを自動化することが可能です。しかし、どうせならデータは自分で用意したほうがいい。そうですね、ライブラリは入力と出力の両方にユニバーサルなインターフェースを持つべきで、指標値から...まで、あらゆるものを接続できるようにする必要があります。だから、ユニバーサルなんです!ダブリングの配列-どれだけ普遍的か?委員会で重要なのは、ドッキングするときに寸法が合うことです。 TheXpert 2011.10.22 22:17 #202 ウラン です。 同じことを言っているのでしょうか? ターゲット関数は、ネットワークの出力誤差を計算するものです。 目指すのは「ターゲット機能」です。標準では -- ベンチマークと比較したRMS出力誤差を最小にすること。 Andrey Dik 2011.10.22 22:33 #203 TheXpert です。....もうユニバーサルなんですねー。ダブルスの配列の方がずっと普遍的?そして、委員会では、ドッキングしたときに寸法が合うかどうかが最大のポイントになります。どういうことですか?汎用性を考えると、GAはちょうどいいんです。エンジンのアルゴリズムは、わかりやすくするためにとても簡略化されています。MLPのグリッドを追加する場合,20個の値を入力し,第1隠れ層に10ニューロン,第2隠れ層に10ニューロン,出力に1を入力した場合,いくつの重みを持つことになるかを尋ねます.244のことを伝えています。もう1つグリッドを追加したいので(それが何であれ)、もう一度......と尋ねると、542と表示されます。ということは、244+542=786。SLとTPも最適化したいので、パラメータを2つ追加して、786+2=788とします。macdiも最適化したいのですが、パラメータが2つあるので、788+2=790となります。OK、アレイのサイズを790に変更します。で、出来上がり!GAで790のパラメータを最適化します。で、(事前に策定した)統一インターフェース規格を守りながら、ネットワークタイプなどを好きなだけ追加していきます。というようなものです。 --- 2011.10.22 22:33 #204 ウラン です。グラフエンジンを作って、普遍的なネットワーク(数種類のバリエーション)を作り、それを専門家に解釈してもらうことにしよう。 さらにシンプルにすることができます。このような状況では、特殊から一般へ、普遍的なモデルへの抽象化を図ることになる。1.実装可能なネットワーク(トポロジーとその学習方法)を描く(紙面上+マトリックスの言語アルゴリズム)。 2.描画されたモデルの中から共通のドッキングポイントを見つけ、抽象的なエンジンクラスを作成する。 このように、基本的な構成要素を引っ張ってくるモデルをもっと検討する必要があります。この抽象化は、必然的に人間の言語概念(「作る」、「学ぶ」、「バグを直す」)の角度から見ることになる。そうすることで、まず一般的なユーザーにとってモデルが明確になるからです。第二に、このような機能表記は、新しいトポロジーや手法に容易に拡張できることである。 михаил потапыч 2011.10.22 22:41 #205 もうひとつのイミフ。外から来た専門コンサルタントが、あなたの要求を満たすことはまずないでしょう。せいぜい、自分と同じレベルのスペシャリストが、自分の知識を売り込もうとして、交渉の段階で、自分のレベルを自分の欲しいレベルに誇張して交渉するのが関の山でしょう。 もし、予算があるのなら、どんなものでも、プロジェクト 終了時に、メタ・クォーターの主観で、等分するかしないか分けた方が効率的だと思います。 Mykola Demko 2011.10.22 22:43 #206 セルゲイさらにシンプルにすることができます。このような状況では、普遍的なモデルへの抽象化を試みながら、特殊から一般へと進んでいきます。1.実装可能なネットワーク(トポロジーや学習方法)を描く(紙面上+言語アルゴリズムマットモデル)。 2.描画されたモデルの中から共通のドッキングポイントを見つけ、抽象的なエンジンクラスを作成する。 このように、基本的な構成要素を引っ張ってくるモデルをもっと検討する必要があります。この抽象化は、必然的に人間の言語概念(「作る」、「学ぶ」、「バグを直す」)の角度から見ることになる。そうすることで、まず一般的なユーザーにとってモデルが明確になるからです。第二に、このような関数や概念は、新しいトポロジーや手法に容易に拡張することができる。12ページにユニバーサル・ニューロンを描きましたが、何か物足りない感じがします。すなわち、アクチベーターにある記憶受容細胞である。でも、トレーニング方法についてはパス。 数学者に任せよう:o) Mykola Demko 2011.10.22 22:46 #207 ミシェック もうひとつのイミフ。外資系.comの専門コンサルタントがあなたの要求を満たすことはまずないでしょう。どんなものであれ、予算があるのなら、プロジェクト終了時に、メタコータの主観的な評価に基づいて、平等に、あるいは平等でないように分けた方が効果的です。予算はちょっと待てよ、個人的にはアンケートの最初の項目を選んだし、メタルはここで愚痴ってるわけじゃないし。そして、部外者については、どこを見るかによりますが、少なくとも数学者の素養がある人であるべきです。 数学の近くではなく、数学者。 михаил потапыч 2011.10.22 22:49 #208 ウラン です。予算はちょっと待て、個人的にはアンケートの1点目を選んだのだが、ここで脳みそを乾燥させるのはメタルじゃない。そして、部外者については、どこを見るかによりますが、少なくとも学歴は数学者であるべきだと思います。 ない近くmatematicheskoyレイ、すなわち、数学者。 まず、スペシャリストの要件について、一般的な、あるいはほぼ一般的な意見をまとめようとします。 TheXpert 2011.10.22 22:55 #209 セルゲイ2.描画されたモデルの中から共通のドッキングポイントを見つけ、抽象的なエンジンクラスを作成する。 サンプルコードを描いて並べました。シンプルなモデルはすべて、これらの実体にフィットします。 Vladimir 2011.10.22 22:59 #210 TheXpert: ところで、ウラジミールさん、もっと広く自分の見解やメッシュを声に出してみませんか? 私の考えでは、グリッドはモデリンググリッドと分類グリッドに分かれます。モデリングは、過去の価格などの入力データに基づいて、次の価格を予測しようとするものである。このようなネットモデルは、市場には適用できない、と私は考えています。分類ネットワークは、入力データ、すなわち、買い/売り/保有、トレンド/フラット、または他の何かを分類しようとするものです。これが面白いんです。私の考えでは、最も有望な分類ネットワークは、入力データを正しく変換したSVMです。つまり、SVMの代わりにRBNのような他のものを使うことができるのです。この2年間は、脳をベースにしたネットワークに取り組んできました(ちなみに、MLPや他のほとんどのネットワークは、脳と何の共通点もありません)。脳は、入力データ(音、画像など)を変換するためのいくつかの層と、VSMのような分類エンジンを持っています。脳内のデータ変換は、通常通り、フィルタリングと次元削減によって行われる。フィルタの特徴は、教師なしで、ヘブ競争学習などの自己学習方式で学習される。フィルタリングされたデータの分類は、教師(フィードバック)を使って行われる。詳しくは後日書きます。 MLP Generalized MLP Modular netwok Self-organizing maps Neural gas Competitive learning - promising Hebbian - promising FFCPA Radial basis networks LSTM Time lagged recurrent Partially recurrent Wavelet networks _COPY Fully recurrent Neuro-fuzzy Support Vector Machines - promising Custom Architects - promising "New Neural" is an 1...141516171819202122232425262728...100 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
アンドレイ(TheExpert)の、このアイデアのユートピア性についての感情は、雇われた専門家、プロジェクト管理者、そして参加者の最終的なコンシリウムが評決を発表するまで、脇に置いておくべきだね。その間、この話題はテーブルの上に置かれたままです。
そして結果として、少なくとも似たようなことを達成するために、目標を調整する必要があるのです。
お前、俺のこと完全に理解してないみたいだな。私は地に足がついていない、悲観的な面もあるんです。
そう、図書館はレゴのセットのように、好きなものを組み立てることができるユニバーサルなものであるべきなのです。
だから、問題なし!でも、それぞれを別々に教えてください。機能的にはできる、協調訓練は地獄か、XORを覚えるのに1時間かかる不器用なモンスター。
そうですね、テンプレートの専門家が必要なライブラリは、使いやすいものであるべきです。ノンプログラマーでも使えるほど、使いやすい。
理論的には、簡素化とノンプログラマーのために、いくつかのテンプレートEAを作成し、それらのデータフィードを自動化することが可能です。しかし、どうせならデータは自分で用意したほうがいい。
そうですね、ライブラリは入力と出力の両方にユニバーサルなインターフェースを持つべきで、指標値から...まで、あらゆるものを接続できるようにする必要があります。
だから、ユニバーサルなんです!ダブリングの配列-どれだけ普遍的か?委員会で重要なのは、ドッキングするときに寸法が合うことです。
同じことを言っているのでしょうか? ターゲット関数は、ネットワークの出力誤差を計算するものです。
....
もうユニバーサルなんですねー。ダブルスの配列の方がずっと普遍的?そして、委員会では、ドッキングしたときに寸法が合うかどうかが最大のポイントになります。
どういうことですか?汎用性を考えると、GAはちょうどいいんです。
エンジンのアルゴリズムは、わかりやすくするためにとても簡略化されています。
MLPのグリッドを追加する場合,20個の値を入力し,第1隠れ層に10ニューロン,第2隠れ層に10ニューロン,出力に1を入力した場合,いくつの重みを持つことになるかを尋ねます.
244のことを伝えています。
もう1つグリッドを追加したいので(それが何であれ)、もう一度......と尋ねると、542と表示されます。
ということは、244+542=786。
SLとTPも最適化したいので、パラメータを2つ追加して、786+2=788とします。
macdiも最適化したいのですが、パラメータが2つあるので、788+2=790となります。
OK、アレイのサイズを790に変更します。
で、出来上がり!GAで790のパラメータを最適化します。
で、(事前に策定した)統一インターフェース規格を守りながら、ネットワークタイプなどを好きなだけ追加していきます。
というようなものです。
グラフエンジンを作って、普遍的なネットワーク(数種類のバリエーション)を作り、それを専門家に解釈してもらうことにしよう。
さらにシンプルにすることができます。
このような状況では、特殊から一般へ、普遍的なモデルへの抽象化を図ることになる。
1.実装可能なネットワーク(トポロジーとその学習方法)を描く(紙面上+マトリックスの言語アルゴリズム)。
2.描画されたモデルの中から共通のドッキングポイントを見つけ、抽象的なエンジンクラスを作成する。
このように、基本的な構成要素を引っ張ってくるモデルをもっと検討する必要があります。
この抽象化は、必然的に人間の言語概念(「作る」、「学ぶ」、「バグを直す」)の角度から見ることになる。そうすることで、まず一般的なユーザーにとってモデルが明確になるからです。第二に、このような機能表記は、新しいトポロジーや手法に容易に拡張できることである。
さらにシンプルにすることができます。
このような状況では、普遍的なモデルへの抽象化を試みながら、特殊から一般へと進んでいきます。
1.実装可能なネットワーク(トポロジーや学習方法)を描く(紙面上+言語アルゴリズムマットモデル)。
2.描画されたモデルの中から共通のドッキングポイントを見つけ、抽象的なエンジンクラスを作成する。
このように、基本的な構成要素を引っ張ってくるモデルをもっと検討する必要があります。
この抽象化は、必然的に人間の言語概念(「作る」、「学ぶ」、「バグを直す」)の角度から見ることになる。そうすることで、まず一般的なユーザーにとってモデルが明確になるからです。第二に、このような関数や概念は、新しいトポロジーや手法に容易に拡張することができる。
12ページにユニバーサル・ニューロンを描きましたが、何か物足りない感じがします。
すなわち、アクチベーターにある記憶受容細胞である。
でも、トレーニング方法についてはパス。 数学者に任せよう:o)
もうひとつのイミフ。外資系.comの専門コンサルタントがあなたの要求を満たすことはまずないでしょう。どんなものであれ、予算があるのなら、プロジェクト終了時に、メタコータの主観的な評価に基づいて、平等に、あるいは平等でないように分けた方が効果的です。
予算はちょっと待てよ、個人的にはアンケートの最初の項目を選んだし、メタルはここで愚痴ってるわけじゃないし。
そして、部外者については、どこを見るかによりますが、少なくとも数学者の素養がある人であるべきです。
数学の近くではなく、数学者。
予算はちょっと待て、個人的にはアンケートの1点目を選んだのだが、ここで脳みそを乾燥させるのはメタルじゃない。
そして、部外者については、どこを見るかによりますが、少なくとも学歴は数学者であるべきだと思います。
ない近くmatematicheskoyレイ、すなわち、数学者。
セルゲイ
2.描画されたモデルの中から共通のドッキングポイントを見つけ、抽象的なエンジンクラスを作成する。
ところで、ウラジミールさん、もっと広く自分の見解やメッシュを声に出してみませんか?
私の考えでは、グリッドはモデリンググリッドと分類グリッドに分かれます。モデリングは、過去の価格などの入力データに基づいて、次の価格を予測しようとするものである。このようなネットモデルは、市場には適用できない、と私は考えています。分類ネットワークは、入力データ、すなわち、買い/売り/保有、トレンド/フラット、または他の何かを分類しようとするものです。これが面白いんです。私の考えでは、最も有望な分類ネットワークは、入力データを正しく変換したSVMです。つまり、SVMの代わりにRBNのような他のものを使うことができるのです。この2年間は、脳をベースにしたネットワークに取り組んできました(ちなみに、MLPや他のほとんどのネットワークは、脳と何の共通点もありません)。脳は、入力データ(音、画像など)を変換するためのいくつかの層と、VSMのような分類エンジンを持っています。脳内のデータ変換は、通常通り、フィルタリングと次元削減によって行われる。フィルタの特徴は、教師なしで、ヘブ競争学習などの自己学習方式で学習される。フィルタリングされたデータの分類は、教師(フィードバック)を使って行われる。詳しくは後日書きます。
MLP
Generalized MLP
Modular netwok
Self-organizing maps
Neural gas
Competitive learning - promising
Hebbian - promising
FFCPA
Radial basis networks
LSTM
Time lagged recurrent
Partially recurrent
Wavelet networks _COPY Fully recurrent
Neuro-fuzzy
Support Vector Machines - promising
Custom Architects - promising