L'étiquette du marché ou les bonnes manières dans un champ de mines - page 23

 
L'intérêt n'est pas dans le NS en tant que tel - c'est vraiment le même, juste peut-être que la fonction d'activation est différente ou quelque chose comme ça... (Il est dommage que JOONE se soit avéré défaillant lors des tests - il regorge de toutes sortes de fonctionnalités...) Intérêt pour la qualité du signal d'entrée, du processus d'apprentissage et de la sortie.
 
Neutron писал(а) >>

Allez, donnez-nous une idée - nous en discuterons !

Ce qui est prometteur à mettre là-dedans. - Mascotte ?

Oh, j'ai déjà mis tout ce que j'ai sur l'entrée... :) Très bien, je vais vous raconter toute l'histoire.

J'ai déjà dit une fois que j'aime la génétique, parce que la question de savoir quel comportement de réseau devrait être optimal - pour le BGC - est très ouverte.

Je devais interroger le réseau sur chaque nouvelle barre et réagir en conséquence. Alors j'ai écrit quelque chose et j'ai rassemblé différentes moyennes, stochastiques ou tout ce que Dieu m'a envoyé comme données et j'ai commencé. Et maintenant je vois que la grille fait des merveilles. Il tire des grails (pas immédiatement, bien sûr, mais il apprend avant le grail)...

L'erreur était que peu d'indicateurs peuvent être utilisés avec 0 shifter - ils ont besoin de la barre entière pour dessiner. En fait, j'alimentais la grille avec des données de la barre qui n'existaient pas encore et je regardais donc vers l'avenir.

Depuis lors, je me suis battu avec les données d'entrée. Mais j'ai découvert par moi-même que l'apprentissage fonctionne :)

 
YDzh писал(а) >>
L'intérêt n'est pas dans la NS en tant que telle - c'est vraiment la même chose, seulement peut-être la fonction d'activation est différente ou autre chose. De plus, rien ne dépend de la fonction d'activation (son type spécifique), rien ne dépend de la méthode d'apprentissage (si elle est effectuée correctement) !

Tout dépend de ce que vous allez prédire. C'est le but et le point.

Il est inutile de discuter des inductions basées sur le lissage BP sous l'une ou l'autre forme (MACD par exemple) - nous pouvons montrer strictement que BP dans ce cas est un obstacle insurmontable pour la prédiction BP avec des propriétés d'antipersistance dans les séries de première différence (les séries de prix sont exactement telles).

En ce qui concerne le "regard vers l'avenir" dans l'enseignement des NS, nous en avons tous fait l'expérience...

 
Neutron писал(а) >>

Tout dépend de ce que vous allez prédire. C'est le but et la finalité.

Il est inutile de discuter des inductions basées sur le lissage BP sous l'une ou l'autre forme (MACD par exemple) - nous pouvons montrer strictement que BP dans ce cas est un obstacle insurmontable pour la prédiction BP avec des propriétés d'antipersistance dans les séries de première différence (les séries de prix sont exactement telles).

Concernant le "regard vers l'avenir" dans la formation de NS, nous sommes tous passés par là...

Eh bien, ça dépend de la façon dont on voit les choses. La barre est une valeur moyenne. La barre minimale est une minute, ce qui signifie que tout ce qui se trouve avant la minute actuelle a déjà été moyenné dans une certaine mesure.

 
Neutron писал(а) >>

Tout dépend de ce que vous allez prédire. C'est le but et la finalité.

Il est inutile de discuter des inductions basées sur le lissage BP sous l'une ou l'autre forme (MACD par exemple) - nous pouvons montrer strictement que BP dans ce cas est un obstacle insurmontable pour la prédiction BP avec des propriétés d'antipersistance dans les séries de première différence (les séries de prix sont exactement telles).

Concernant le "regard vers l'avenir" dans la formation de NS, nous sommes tous passés par là...

Si c'est le cas, il est inutile de toucher aux indicateurs. Ils sont tous fondés sur l'agrégation de données sous une forme ou une autre. À l'exception du temps, du volume et des prix, il n'y a pas de données primaires. Ensuite, il faut descendre au niveau de la tique... Mais il y a "beaucoup de bruit" là-bas. Paradoxe...

 
YDzh писал(а) >>

Eh bien, si c'est le cas, il est inutile de toucher aux indicateurs. Ils sont tous fondés sur l'agrégation de données sous une forme ou une autre. En dehors du temps, du volume et du prix, il n'y a pas de données primaires. Ensuite, il faut descendre au niveau de la tique... Mais il y a "beaucoup de bruit" là-bas. Paradoxe...

C'est vrai ! Sauf qu'il n'y a pas de chichis - la soupe est séparée.

En ce qui concerne le bar, je n'utilise que les prix d'ouverture - pas de moyenne. Mon plan est d'utiliser uniquement des tiques, comme le dit Prival. Cependant, je vais devoir m'occuper du mode d'économie et de la collecte des données. Mais si ça en vaut la peine, pourquoi pas ?

 

OK, je pense que c'est tout jusqu'à ce que les poids soient corrigés !


for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
 

Je poste les codes juste au cas où :

NeuroNet_1 est un EA de formation à grille vide

NeroLite_ma est un perceptron à deux couches, en fait facilement extensible à une couche N :)

Dossiers :
 
Neutron писал(а) >>

C'est la vérité ! Ne faites pas d'histoires, la soupe est séparée.

En ce qui concerne le bar, je n'utilise que les prix d'ouverture - pas de moyenne. Et je vais faire ce que le sage Prival va faire - passer aux tics. Cependant, je vais devoir m'occuper du mode d'économie et de la collecte des données. Mais si ça en vaut la peine, pourquoi pas ?

Je ne fais pas d'histoires :) L'utilité des tics est reconnue dans la littérature... Ça sent la théorie du chaos. Pour savoir si ça vaut le coup... Cela en vaut-il la peine ? Et où Prival le conseille-t-il ?

Et quels, quels sont les résultats sur le prix d'ouverture ? Je me suis amusé avec l'analyse de régression sans aucune raison. Et il s'est avéré que le haut et le bas sont beaucoup plus faciles à prévoir que le prix d'ouverture... Ce n'est pas si étrange...

 
YDzh >> :

Et où Prival conseille-t-il cela ?

... >> partout ! Les toilettes sont sages !