市場のエチケット、あるいは地雷原でのマナー - ページ 23

 
興味はNSそのものではなく、本当に同じで、ただ、活性化関数が違うとか、そういうことなのですが...。(JOONEはいろいろな機能が満載なのに、テストすると不具合が出るのが残念です......)。入力信号の品質、学習プロセス、出力への関心
 
Neutron писал(а)>>

さあ、アイデアを出してください - 話し合いましょう

何を入れるのが有望か。- マスコット?

あ、もう入力に全力を注いでいます...。:)よし、全部話すぞ。

私はすでに一度、遺伝学が好きだと言っていますが、それは、OROにとって、どのようなネットワーク動作が最適であるべきかという問いが、非常にオープンなものだからです。

新しいバーができるたびにネットワークに問い合わせ、それに応じて対応することになっていたのです。だから、私は何かを書き、平均値やストキャスティクスなど、神様が送ってくれたものを選んで入力し、スタートさせました。そして今、グリッドは素晴らしい働きをすることがわかりました。グレイルを描きます(もちろんすぐには描けませんが、グレイルの前に学習します)...。

0シフターで使えるインジケーターはあまりなく、描画のためにバー全体を必要とするのが失敗でした。実は、まだ存在しないバーからグリッドにデータを送り込み、その結果、未来を見ていたのです。

それ以来、入力データには苦労しています。でも、学習が有効であることを自分で発見したのです :)

 
YDzh писал(а)>>
興味はNSそのものではなく、活性化関数が違うとか、そういうことだけで、本当に同じなんです。さらに、活性化関数(その特定の型)にも、学習方法(それが正しく実行されているかどうか)にも、何も依存しないのです

何を予測するかによりますね。そこがポイントであり、肝心なところです。

この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。

NSの指導で「将来を見据える」ことについては、誰もが経験したことだと思いますが...。

 
Neutron писал(а)>>

何を予測するかによりますね。そこがポイントであり、肝心なところです。

この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。

NSのトレーニングで「将来を見据える」ことについては、誰もが経験したことだと思いますが...。

まあ、見方にもよりますが。棒グラフは平均値です。最小のバーは1分であり、それは現在の分より前にあるすべてのものがすでにある程度平均化されていることを意味します。

 
Neutron писал(а)>>

何を予測するかによりますね。そこがポイントです。

この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。

NSのトレーニングで「将来を見据える」ことについては、誰もが経験したことですが...。

そうだとしたら......指標に触れる意味はまったくないですね。これらはすべて、何らかの形でデータの集積の上に成り立っている。時間、数量、価格を除いては、一次データはありません。じゃあ、ティックレベルまで下げないと...。しかし、そこには「ノイズが多い」。パラドックス...

 
YDzh писал(а)>>

まあ、そうであれば、指標に触れる意味が全くないわけですが。これらはすべて、何らかの形でデータの集積の上に成り立っている。時間、数量、価格以外には、一次データはありません。じゃあ、ティックレベルまで下げないと...。しかし、そこには「ノイズが多い」。パラドックス...

本当だ!ただし、大騒ぎすることはない。スープは別にあるのだ。

バーについては、私は始値のみを使用し、平均化はしていません。私の計画では、賢者プライヴァルが言うように、ティックのみを使用する予定です。ただし、保存モードとデータ収集には手こずることになりそうです。でも、それだけの価値があるのなら、いいじゃないですか。

 

よし、ウェイトの修正まではこれでいこう!」と思いました。


for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
 

念のため、コードを載せておきます。

NeuroNet_1 は、空のグリッドの学習用 EA です。

NeroLite_maは2層パーセプトロンで、実はN層まで簡単に拡張できる -:)

ファイル:
 
Neutron писал(а)>>

それが真実だ!ただ、騒がないでくださいね。スープは別腹です。

バーについては、私は始値のみを使用し、平均化はしていません。そして、賢明なプライヴァルがすること、それはティックに切り替えることです。ただし、保存モードとデータ収集には手こずることになりそうです。でも、それだけの価値があるのなら、いいじゃないですか。

騒がない :)チックの有用性は文献上でも認められていますが...。カオス理論の香りがする。その価値があるかどうかについては...。その価値はあるのか?そして、プライヴァルはどこに助言しているのでしょうか?

また、初値の結果はどうでしょうか?意味もなく回帰分析で遊んだりしています。そして、高値と安値は建値よりもはるかに予測しやすいことが判明した...。そんなに不思議なことではないのですが......。

 
YDzh >> :

そして、プライヴァルはどこにそのことを助言しているのでしょうか?

...>> どこもかしこも!トイレが賢い!