ニューラルネットワーク、どう使いこなすか、何から始めるか? - ページ 16

 

使用する用語の定義を教えてください。キャンドルレンジとは何ですか?ネットワークは事例から学ぶべきものです。あなたのネットワークにとって、何がポジティブな例で、何がネガティブな例なのか(あなたの視点から)。オーバーシュート率」とは何ですか?

 
Neutron >> :

使用する用語の定義を教えてください。キャンドルレンジとは何ですか?ネットワークは事例から学ぶべきものです。あなたのネットワークにとって、何がポジティブな例で、何がネガティブな例なのか(あなたの視点から)。オーバーシュート率」とは何ですか?

最後に形成されたバーの範囲 = High[1]-Low[1];

double cdpb // 過去5本のバーの平均範囲

for(i=1;i<5;i++){。

сдппб=сдппб+(High[1]-Low[1])/5;

}

購入条件

if(最後に終了したバーの範囲>過去5バーの平均範囲*係数 && Close[1]>Open[1]){...

マーケットで買う

}

ネットのプラスマイナスの例、おそらくトレードの結果を定義するのは簡単か教えてください。

 

диапазон последнего сформировавшегося бара>средний диапазон пяти последних баров*коэффицент

この条件によって、ネットワークの学習アルゴリズムとそのアーキテクチャが決定される。ポジションを持つことで始まり、ポジション反転の シグナルが出たときに決済する、予測されたコチルの動きがネットワーク上で一致することをポジティブな結果と見なします。否定的 - それぞれ - 一致しない。ネットワークトラインの結果は、最適な(その観点から)係数 値を見つけることになる。ネットワークは7つの入力を持つことになります。最初の入力は一定のオフセット(ネットワークの計算能力を高め、学習を加速する)、2番目の入力は1気圧の範囲、3番目の入力は2気圧の範囲、以下5気圧まで、7番目(NSの最後の入力)は0気圧(現在)の範囲となり、それと比較することになる。

私たちが選んだネットワークは、最もシンプルな線形ペルセプトロンです。学習過程で、各バーに最適な比率を割り当て(あなたのケースのように5本全部に1本ではなく、各バーに1本ずつ(w0、w1・・・w6))、原理的に可能なら、ナショナルコンピューターはほとんど間違いなく売買を予測するのです!。

 
Neutron >> :

この条件によって、ネットワークの学習アルゴリズムとそのアーキテクチャが決定される。NSは、ポジションを持つことから始まり、反転のシグナルが出たときに決済する、予測されたコチルの動きが一致することをポジティブな結果と見なします。否定的 - それぞれ - 一致しない。ネットワークトラインの結果は、最適な(その観点から)係数値を見つけることになる。ネットワークは7つの入力を持つことになります。最初の入力は一定のオフセット(ネットワークの計算能力を高め、学習を加速する)、2番目の入力は1気圧の範囲、3番目の入力は2気圧の範囲、以下5気圧まで、7番目(NSの最後の入力)は0気圧(現在)の範囲となり、それと比較することになる。

ネットワークは、最もシンプルな線形ペルセプトロンを選択します。学習過程で、各バーに最適な比率を割り当て(あなたのように5本全部に1つではなく、各バーに1つの個別(w0、w1・・・w6))、原理的に可能であれば、NSはほぼ間違いなく売買を予測することになりますね

Neutron さん、ありがとうございました。


私の理解が正しければ、エントリーはWnとしてマークされています。もしそうなら、私の次の仕事は、例えば、各エントリーをコードで記述することです。

int w0= постоянное смещение ( вот с этим не совсем понятно);  
double w1=High[1]-Low[1];
double w2=High[1]-Low[2];
double w3=High[1]-Low[3];
double w4=High[1]-Low[4];
double w5=High[1]-Low[5];
double w6=High[1]-Low[0];



これでいいのでしょうか?

 

そうなんだ!

定数入力が明確でないのは?入力データをあらかじめ正規化する必要があるが、この手順は必須ではなく、望ましいものである(ネットワークの学習速度を上げ、予測力を高めることができる)。この結果、-無限大から+無限大までの多様な入力信号が、有限の区間+/-1に写像されることになる。定数オフセットとして、NSの第1入力に+1(わかりやすくするため)を供給することにする。出力は、Out>0がBue、Out<0がSellを意味します。

 
Neutron >> :

そうなんだ!

定数入力が明確でないのは?入力データをあらかじめ正規化する必要があるが、この手順は必須ではなく、望ましいものである(ネットワークの学習速度を上げ、予測力を高めることができる)。この結果、-無限大から+無限大までの多様な入力信号が、有限の区間+/-1に写像されることになる。一定のオフセットとして、NSの第1入力に+1(確実性)を与える。

int    w0=1; // это для того, чтобы все ниже описаные входы были проработаны на истории?
double w1=High[1]-Low[1];
double w2=High[1]-Low[2];
double w3=High[1]-Low[3];
double w4=High[1]-Low[4];
double w5=High[1]-Low[5];
double w6=High[1]-Low[0];
 
Andrey4-min писал(а)>>

これで良いのでしょうか?

やっぱりおかしいんです。

この方式では、NSへの入力は正の振幅の信号のみとなり、ネットワークは分析のベースとなる可能性のあるすべての情報を得ることができない。より良い、ろうそくの色であなたの入力の値を乗算:ろうそくが上昇していた場合+1、および-1 - それが落ちていた場合。さらに±1ではなく、Close[i]-Open[i]という増分の値まで。

このように表示されます。

w1=(High[1]-Low[1])/Point*( Close[1]-Open[1])/Point;

w1=(High[2]-Low[2])/Point*( Close[2]-Open[2])/Point;

w1=(High[3]-Low[3])/Point*( Close[3]-Open[3])/Point;

今のところノーマライゼーションなしです。

P.S. I don't understand this:// 後述の入力をすべて履歴で動作さ せることでしょうか?

 
Neutron >> :

これでも正しくないのです。

この方式では、NSへの入力は正の振幅の信号のみとなり、ネットワークは解析のベースとなる可能性のあるすべての情報を得ることはできない。より良い、ろうそくの色であなたの入力の値を乗算:ろうそくが上昇していた場合+1、および-1 - それが落ちていた場合。さらに±1ではなく、Close[i]-Open[i]という増分の値まで。

このように表示されます。

w1=(High[1]-Low[1])/Point*( Close[1]-Open[1])/Point;

w1=(High[2]-Low[2])/Point*( Close[2]-Open[2])/Point;

w1=(High[3]-Low[3])/Point*( Close[3]-Open[3])/Point;

今のところノーマライゼーションなしです。

P.S. 私はこれを理解していない:// それは、以下に説明するすべての入力を、歴史を通して動作さ せることでしょうか?

例では3行ともw1になっていますが、そのようにすべきでしょうか?

P.S. 私が理解できないのは、これです。// 以下に説明するすべての入力が、履歴上で作業できるように するためです。

w0がどのような機能を果たすのか理解したいのですが、ループのような物語のステップだと思いましたが、そうでなければもう少し教えていただけませんか...。

 
Andrey4-min писал(а)>>

例では、3行ともw1となっていますが、このままでよいのでしょうか?

w0がどのような機能を果たすのかを考えているので、ループのように歴史に踏み込むものだと思ったのですが、そうでない場合はもう少し説明をお願いします...。

w0がどのような機能を果たしているかを理解するためには、NSに飛びつくのではなく、教科書から入った方がいいと思います。

 
Andrey4-min писал(а)>>

あなたの例では、3行すべてにw1がありますが、これはどうあるべきなのでしょうか?

いや、間違えたんだ。申し訳ございません。

w0がどのような機能を果たすのか、歴史のステップのようなものだと仮定して、ループのように、そうでなければ、もっと説明してください・・・。

例えば、家の屋根に釘で打ち付けられた板の表面の質感を考える必要があると想像してください。あなたならどうする?そうです、屋根に登って、すべてを間近で検証するのです。もし、そのような仕事がNSに与えられたら、NSは責任を持ってそれを実行し、屋根の下に入るのではなく、屋根の上に板がある家全体と一緒に板を勉強するのだ!」。

そこで、NSの不要な作業を排除するために(学習もそうだが、この処理は非常にリソースを消費する)、固定オフセットの「余分な」入力を導入する。今すぐ見て:学習プロセス自体のNSは、この入力(+ / - 1または他の)に必要な体重を選択します、それはあなたが関心のあるボードに上昇するために、家にはしごを置くという事実に等しいです!それは、あなたがあなたのために、あなたのために、あなたのために、あなたのために、あなたの家にはしごを置くことができます。NSは不要な情報の山をあさることなく、簡単な動きで、快適な(理解しやすい)ポジションをとり、さらに快適に学習することができるようになりました。