"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。

 

ごあいさつ

ここでは、このプロジェクトの 狙いと目的を概説することを提案します。詳細やニュアンスについて話し合う。

どういたしまして。

 
TheXpert です。

まず、プロジェクトのための新しいシンプルなフォーラムを持つことです。

sorsforgeにプロジェクトを作って、素直にそちらに議論を移した方がいいと思うんです。

まずはブレインストーミングです。どんなに超現実的でもアイデアのデータベースが必要で、フォーラムのスレッドは(そのオープン性から)最良の方法だと思います。

専門家でなくとも、誰もが掲示板に突撃する可能性があります。嵐の提案は、他の文章からカラーで強調した方が良い。

例えば、グリッドを作成するためのグラフィカルなエンジンを作成し、エンジンを起動する前に、ニューロン数によって各層の入力ウィンドウは、その後、ユーザーが接続を定義する追加トレンドライン、層の数を設定 します。

 
TheXpert です。

アンドレイ、このスレッドでブレインストーミングをやってもいいかい?

もちろん、そうです。そのためのスレッドです。
 

突撃のテーマ

--プロジェクトの 種類(ユーザーとプロジェクトの関わり方)

-- プロジェクトで実施されるネットワーク

-- 前処理とそのすべて

-- アーキテクチャ、インターフェース

-- インプリメンテーション、コネクティビティ。

-- テスト、デバッグ。

禁句:どんな、妄想でもいいから、はぐらかすように批判する。実力は関係ない。興味がある人、思っていることがある人は、どんどん発言して ください。

新しいアイデアを提案するのも、すでにあるアイデアを発展させるのも歓迎 です。

 
TheXpert です。
...

と付け加えるべきかもしれません。

-- 後処理

特に、個々のモジュールのインターフェースには、拡張性(異なる信号の接続/切断、ネットワークのコミッティー化など)を期待して、注意を払うべきだと思います。そのため、ネットワークそのもの(例えば隠れ層を2つ持つMLPのようなネットワークは数十行で済みます、アタシャの例)と学習アルゴリズムを分離する必要があるのです。

ファイル:
F_MLP.mqh  5 kb
 

ベクトルの正規化、入力・出力データの可視化。

外部コンストラクタ Neurosolutions を使用する,Neurosolutions, niterface を持つ DLL を使用する ...

データをアップロード/アンロードするためのインターフェース:ベクトル、ウェイト。

EDNA 進化型デザインネットワークアーキテクチャ

活性化関数や学習アルゴリズムの選択・カスタマイズが可能です。

 
njel
おそらく、ディロックが出ないというのもチップの一つでしょう。
 

...このような感じです。

プロジェクトの種類:クラスライブラリ。

1) 相互作用の方法 - 彼らのシステムのコードで(広範囲に文書化された)APIを使用する

ライブラリーの実用化は、そうなるんですね。

  1. 独自のユーティリティを 素早く書く? (何と呼ぼうか)- 必要なネットワークの種類を指定し、その構成を形成し、何を食べさせるか(トレーニングサンプル)を規定する、などだ。
    このようなユーティリティは、それぞれ入力パラメータを持つ独立したアプリケーションとして機能することができる。テスターで実行し、学習済みネットワークをファイルとして取得する(FILE_COMMON)

  2. 学習済みネットのファイルを利用するEAの書き方は?

2)第二の対話の方法ネットワーク作成/トレーニングユーティリティの作成を簡略化するGUIアプリケーション- タイプのパラメータなどに関しては簡単です。+ UIでネットワークに何を送るか設定する方法は?ニューラルネットワーク作成ウィザードのように、ネットワーク生成ユーティリティのテンプレート作成をメタエディタに埋め込むことは可能でしょうか? 出力は完成したコードで、唯一指定する必要があるのは、ネットワークの入力に何が供給されるか?


追伸:上記のjoo さんの提案で、「拡張性を期待した個別モジュールのインターフェース」を利用すれば、ウィザードを元にメタエディタで生成するだけで、学習アルゴリズムは完成するはずです。

 
ジュ

ここでは、プロジェクトの狙いと目的を概説することを提案します。詳細やニュアンスについて話し合う。

私の理解が正しければ、FANNのような、より広範で一般的なアイデアなのでしょうか?そのようなモンスターの見通しをどのように評価するかさえ、それは巨大な層である)非常に多くの詳細とニュアンス。でも、コードの小さな作品でjooを 投稿し 特定の実装(活性化関数の番号7は、この作品から可能性が高い)にシャープせずにしませんでした。神経回路網は、そのような細部にわたって構成されています。興味を持って私はプロジェクトに従うと邪魔にならないようにしようとしますが、今のところ私は何も考えていない - それは少数の愛好家によって原理的に可能である....

 

モジュラーニューラルネットワーク

大規模なネットワークを部分的に学習させる機能を追加することも可能で、実質的には委員会学習ですが、ネットワークを1つのシステムにまとめるという問題はありません。
Модулярні нейронні мережі — Вікіпедія
  • uk.wikipedia.org
Модулярна нейронна мережа (англ. ) — група нейронних мереж (які в даному випадку називаються модулями), що керуються певним посередником. Кожна нейронна мережа слугує модулем і оперує окремими входами для вирішення певних підзавдань із групи завдань, які повинна виконати модулярна нейронна мережа. [1] Посередник приймає вихідні сигнали кожного...
 
Figar0:

私の理解が正しければ、FANNのような、より広範で一般的なアイデアなのでしょうか?

ずっと「広く」「一般的に」。:)

そうでなければ、なぜ悩むのか?

Figar0:

だから、細かいニュアンスもたくさんある。でも、コードの小さな作品でjooを 投稿し 特定の実装(活性化関数の番号7は、この作品から可能性が高い)にシャープせずにしませんでした。神経ネットワークは、そのような部分だけで構成されています。

まさにここがダメなんです。活性化関数の数字7はスケールファクターで、シグモイド曲率プロットが[-1.0;1.0]の範囲に収まるようにするため。

さらに、混乱を避け、同じインターフェイスを確保するために、すべてのグリッドタイプの入力と出力にこの範囲を使用することをお勧めします。だから、将来のデザインを想定して7としたのです。

しかし、この係数を変数として形成することで、FAを持つ全てのニューロンでシグモイドの曲率を調整することが可能となる(論理切り替えから、単純な線形スケーリング、非線形S変換による中間区間を含む)。

理由: