"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 98

 
Maxim Dmitrievsky:

Ils ne doivent pas être strictement périodiques, mais ils ne doivent pas non plus être du bruit. L'image est probabiliste, pas stricte. La fenêtre coulissante est destinée à l'indicateur d'entropie ainsi que le nombre de caractéristiques pour la formation, ils peuvent être optimisés.

Si les échantillons sont incohérents, vous n'obtiendrez rien, c'est pourquoi il y a tant d'erreurs 50-50. Et une boucle ne peut pas être contradictoire, soit elle existe, soit elle n'existe pas, sous quelque forme que ce soit. Si vous ajoutez beaucoup de boucles différentes, elles ne se contredisent pas.

Le cycle de rotation est un concept relatif dans la métrique de l'entropie.

Et comment mesure-t-on le degré d'entropie des données ?

 
Maxim Romanov:

Et comment mesure-t-on le degré d'entropie des données ?

ci-dessus est un lien vers mon wiki et celui d'Alexander sur le Hubr

 
kapelmann:

Je ne les ai certainement pas tous regardés, mais tous ceux qui sont "avec des sources en MQL", tous sans réseaux neuronaux eux-mêmes, mais essentiellement un exercice de POO sous la forme de wrappers vers diverses bibliothèques ou vers le même NeuroPro, franchement, après une douzaine de ces articles lus, ils se ressemblent tous, parfois il semble même que la POO pour les robots de stock est plus nuisible qu'utile, IMHO POO pour les projets de 100 mille lignes commence à montrer des avantages, et quand trois fonctions enveloppent dans cinq classes et même avec l'héritage est ridicule.


PS : s'il vous plaît, ne m'apprenez pas à faire des recherches sur Internet, donnez des liens spécifiques vers le CODE OUVERT des réseaux neuronaux, pas de Vopers, pas de réécriture de livres et d'articles.

Ces deux paragraphes se contredisent. Quiconque sait faire des recherches sur Internet (en particulier sur ce site) trouvera rapidement des implémentations des types NS de base en MQL pur, sans dépendances ni wrappers.

 

Il est impossible de faire une matrice normale dans MQL sans béquilles. De quel genre de SN parlons-nous avec des capacités linguistiques aussi réduites ?

Beaucoup de gens ici ne peuvent même pas reproduire la formule MLP.

 

On prend les retours de la série originale, et on leur enlève la moyenne et la variance. Sur cette base, les retours de la distribution normale sont générés et celle-ci est restaurée à la distribution originale.

L'entropie a été mesurée sur les deux séries. Dans la grande majorité des cas, c'est la même chose, c'est-à-dire que les citations sont des SB.

Et sur les retours, la différence est ce qu'elle devrait être (l'entropie est plus élevée sur les randoms) :

Il ne semble pas y avoir assez de sensibilité pour le rang nu. Je me demande si vos SN ont suffisamment de "sensibilité". C'est douteux.

Et voici un exemple de Bitcoin (qui devrait être encore moins efficace, soi-disant). Et en effet.

Surtout sur H4.

 
Roffild:

Il est impossible de faire une matrice normale dans MQL sans béquilles. De quel genre de SN parlons-nous avec des capacités linguistiques aussi réduites ?

Beaucoup de gens ici ne peuvent même pas reproduire la formule MLP.

Êtes-vous tombé de la lune ou du four quand vous étiez enfant ?

 
Maxim Dmitrievsky:

On prend les retours de la série originale, et on leur enlève la moyenne et la variance. Sur cette base, les retours de la distribution normale sont générés et celle-ci est restaurée à la distribution originale.

L'entropie a été mesurée sur les deux séries. Dans la grande majorité des cas, c'est la même chose, c'est-à-dire que les citations sont des SB.

Et d'après les retours, la différence est ce qu'elle devrait être (l'entropie est plus élevée sur les aléas) :

Il semble qu'il n'y ait pas assez de sensibilité pour le rang nu. Je me demande si vos SN ont suffisamment de "sensibilité". C'est douteux.

Et voici un exemple de Bitcoin (qui devrait être encore moins efficace, soi-disant). Et en effet.

Surtout sur H4.

Bien joué !

Et l'entropie elle-même dans des fenêtres de temps glissantes, comment se comporte-t-elle ?

Il est évident que si nous réalisons des études avec des fenêtres temporelles mobiles de multiples d'une heure (sur des données d'une minute, elles sont de 60, 120, 180, ...), alors nous devrions identifier les fenêtres où l'entropie est minimale en moyenne.

Voici les échantillons sur lesquels vous pouvez travailler - je suis sûr que NS y trouvera des régularités.

 
Грааль:

Il existe un Alglib porté (https://www.mql5.com/en/code/11077).

L'initiative Joo a été vouée à l'infamie, non pas parce que les gens ne sont pas coopératifs, mais parce que c'est une idée futile.

D'accord, merci, je m'en occupe.

Alexander_K:

Patamushta ici n'est pas un vrai leader avec des connaissances, de sorte que les pupilles ne passeraient pas par des options, et l'écouteraient comme des enfants.

Quand j'ai lu ce fil, des larmes ont coulé sur mes joues séniles - comment ils ont supplié des pendus pour prendre la barre, mais il est lui-même désemparé et ..... C'est ça, on est foutu.

Une branche honteuse et instructive.

Les slaves ont besoin d'un chef, d'un père, sévère mais juste, c'est dans les gènes, il est logique que les slaves le ressentent et demandent aux autres races (anglo-saxons, juifs, arabes...) de les commander, c'est logique, les slaves ne tolèrent pas leur chef, sauf s'il est mystifié au niveau de prophète ou oint par Dieu.

 
Maxim Dmitrievsky:

Plus tard, il a écrit un jpredictor standalone en java, avec 2 réseaux neuronaux (mlp et svm, plus précisément) avec sélection automatique des caractéristiques.

Pour autant que je sache, "jpredictor" a toujours le même neurone formé par optimisation des paramètres, la sortie de jpredictor est le poids d'un seul neurone, ce qui n'est évidemment pas quelque chose dont on peut être fier.

 
Maxim Dmitrievsky:

L'entropie est mesurée sur les deux lignes. C'est très majoritairement la même chose, c'est-à-dire que les citations sont des SB.

le niveau de logique est étonnant ;))