ニューラルネットワーク、どう使いこなすか、何から始めるか? - ページ 7

 
registred писал(а)>>

どのようなタイムフレームを使うのですか?

TFは一切使っていません。

その理由は、ローソク足はすべてのタイムフレームで使用されるため、始値(または始値)によって構築されたBPは、他の方法(計器時間に切り替えるなど)によって初期のものから構築されたBPよりも統合ランダムBPに近いからです。

 

gpwr さん、arnautov さん、ありがとうございます。

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

入力データとは、Expert Advisor の外部パラメータの変数で、係数が比較されるという理解で正しいですか?

被写体に近づく?問題なし!まずニューロンを書いて、それを組み合わせてネットワークにするのがよいでしょう。そして、アドバンストプログラム......それは、その後です。それ以外のアドバイスはすべてゴミです。

そして、神経細胞を書くということは、段階に分けて書くことができるのでしょうか?


どう?スレッドで「例題を使いたい」と書いた人、はじめましょうか?

最初のステップを指摘されたのは、アドバイザーが5ページ目に...。

 
Neutron >> :

少し前に2つの定理が証明されたことは知っています。

参考文献を教えてください。

1によれば、3層非線形NS(3層のニューロンからなり、各層の出力に非線形性を持つ)は、普遍的な近似器である

まあとっくに証明されているようなものですが。どんな関数でも、どんなに小さな精度でも、3層のペルセプトロンで近似できること。

で、さらに層数を増やしても、ネットワークにパワーが加わることはない。

第二定理によれば、ネットワークの計算力は、そのニューロンの出力における非線形の特定のタイプに依存することはない。それ(非線形性)が原理的にあることが重要で、シグモイドでもアークタンジェントでも、具体的にどうであるかは問題ではありません。

私が言っていたのは、実用的な実験の結果です。非直線性については...ただし、これらの定理に慣れることが先決です。

また、ネットワークの学習に関与しないデータに対する予測誤差を最小にするという意味で、過去のデータに対する最適な学習サンプル長、NSの入力の次元、シナプスの総数との間に明確な関係があることが証明された。このため、手動でこの最適を選択することで、レーニン主義に関与しないことができる。既存のMSの能力では、これは多くの時間と労力を節約することができます。

調整可能なパラメーターの数ということでしょうか?しきい値も含まれます。ちなみに、証拠書類もあると助かりますね。そして、ニューラルネットワークを扱い始めた人は、この教材に触れておいて損はないだろう。

 
Andrey4-min >> :

そして、ニューロンを書くことで、それをステップに分解することができますか?

オブジェクト指向の言語で書いたほうがいい。


NSを書くときに、Neuronは浅すぎる概念です。

層は同一の神経細胞の連合体なので、神経細胞を個別に考えるのは意味がない。


私のライブラリでは、レイヤーとウェイトという2種類の抽象化機能しか使っていません。


ウェイトは2つの層をつなぐシナプスのブロックです。

層は、入力バッファ、出力バッファ、エラーバッファ、および活性化関数を持つ。シナプスは2次元配列で、以下のようにレイヤーの出力バッファと入力バッファをリンクする。

ネットワークとは、層とその間のリンクの集合体である。エラーバッファに0以外の信号がある層は、すべて出力層とみなすことができる。

 
TheXpert писал(а)>>

まあ、そんなことはとっくに証明されているんですけどね。3層のパースペクトロンは、任意の関数を、任意の小さな精度で 近似できること。

精度ではなく、誤差。

それがはっきりしているのなら、この複雑さは何なのでしょう。

TheXpert さんが書き込みました >>1

多くの問題において、4層ペルセプトロンの方がはるかに優れた結果と収束性を示している。

そして、場所によっては5層が使われることもあります。ペルセプトロンをベースにした複雑なネットワーク(複数の出力層と複雑なリンクを持つ)については、とりあえずその部分は省きます。

調整可能なパラメーターの数のことでしょうか?しきい値も含まれます。ちなみに、それらを文書化することも有効です。そして、これからニューラルネットワークに取り組もうとする人は、この教材に触れておくとよいだろう。

そうですね、NSの重みの数と入力数、学習サンプルの最適な長さとの関係という意味です。この関係の導出は、アタッチメントの添付記事P64~65に記載されています。64-65.簡単に説明すると、NSの重みの数をw、 入力の数を d、学習サンプルの長さをPと したとき、最適な条件として、P = (w^2)/d を満たす必要がある。

定理への言及は後でするとして、私はそれを見つける必要がある。

ファイル:
yvtwslxtn.zip  1592 kb
 
Neutron >> :

正確さではなく、誤差の範囲で。

はい。

これがはっきりしているのなら、なぜ複雑なのか。

レイヤーを追加したり、アーキテクチャを変更したりするのが、マウスの数クリックや数行のコードで済むとなると、その複雑さが面白いおまけになってしまうという単純なものです。

はい、入力数と学習サンプルの最適な長さに対するNSの重みの数という意味です。この関係の派生は、pp.Attachの添付記事に記載されています。64-65.

>> ありがとうございました。定理の証明は?少なくとも、正確な文言は?

 

あらゆる非線形ニューロン関数に対する適合性定理は、旧ソ連、そして1980年代後半からはアメリカの数学者Vladik Kreynovichによって証明され[1]、欧米の主要なニューラルネットワーク専門誌に掲載された。

1.クレノビッチ V.Y.ニューラルネットワークですべての関数を 表現するには、任意の非線形性で十分である:定理/ ニューラルネットワークス, 1991, Vol.4, № 3.- pp.381-383です。

追伸:3層の充足感については、後ほど。

 

ゴーバンA.N.の論文「...」で見た3層で十分であることの証明は、見当たらない。

十分であることの証明は、以下に添付した記事P39にある。

ファイル:
esibfjnus.zip  967 kb
 
これは、コルモゴロフが証明した「任意の数の変数の関数は、2変数の関数で正確に表現できる」という定理と何らかの関係があるようだ。正確に表現できていないかもしれませんが、NSの記事でよく紹介されています。
 
Mathemat писал(а)>>
コルモゴロフが証明した「任意の数の変数の関数は、2変数の関数で正確に表現できる」という定理と何らかの関係があるようだ。正確に表現できていないかもしれませんが、NSの記事でよく紹介されています。

そうそう、問題の根源は'58年にさかのぼります。