Trouver un ensemble d'indicateurs pour alimenter les entrées du réseau neuronal. Discussion. Un outil d'évaluation des résultats. - page 8

 

lea писал(а) >>

L'objectif est de sélectionner un ensemble de variables qui sont plus faiblement corrélées que les variables d'origine.

J'ai essayé de faire un réseau convolutif un peu avant, pour les tests j'ai pris une série temporelle M5, un réseau 48-x-48, la série a été réduite à une forme symétrique par rapport à 0. La fonction d'activation th(). Je n'ai donc pas réussi à obtenir une erreur supérieure à 0,1 sur l'échantillon de test, ce que je n'ai jamais pu faire.

 
rip писал(а) >>

J'ai essayé de faire un réseau convolutif un peu avant, pour les tests j'ai pris une série temporelle M5, un réseau 48-x-48, la série a été réduite à une forme symétrique par rapport à 0. La fonction d'activation th(). Je n'ai donc pas pu obtenir une erreur supérieure à 0,1 sur l'échantillon test.

Ce n'est pas vraiment à moi d'emballer la série de prix. J'ai déjà un ensemble d'indicateurs (c'est-à-dire une série de prix transformés), il faut donc réduire la dimensionnalité de cet ensemble.

 
lea >> :

Je ne suis pas vraiment à la recherche d'un emballage de série de prix. Il existe déjà un ensemble d'indicateurs (c'est-à-dire une série de prix transformée), il faut donc réduire la dimensionnalité de cet ensemble.

Le réseau de convolution et l'ACP sont la même chose, seuls les termes sont différents.

On entre X, on l'attend à la sortie du réseau. Le nombre de neurones de la couche intermédiaire est inférieur à celui de la couche d'entrée/sortie. Valeur des sorties des neurones

La couche intermédiaire est considérée comme une mise en correspondance de l'ensemble d'entrée. Ces données sont utilisées dans le cadre d'un traitement ultérieur.

 

lea писал(а) >>

Quelqu'un s'est-il essayé à l'analyse en composantes principales (aussi appelée "analyse en composantes principales" ou "ACP") ?

Merci. C'est une bonne question.

 

iliarr писал(а) >>

si la fonction cible est uniquement le nombre de transactions ou uniquement le drawdown, elle sera peu utile, car le réseau apprendra soit à entrer/sortir du marché souvent et sans but, soit à éviter les drawdowns.....

vous devez optimiser le profit, le nombre de transactions et les drawdowns ... Si je me souviens bien, JGAP permet d'avoir une fonction cible avec plusieurs sorties. Mes priorités actuelles sont : résoudre les données d'entrée et affiner le neuronet de récurrence.

Pour l'instant, comme je le vois, rechercher et tester les données d'entrée avec la méthode que j'ai suggérée n'intéresse personne...

Ilya, je pense que vous serez intéressé par l'article de Currency Speculator (http://www.spekulant.ru/archive/2004_11_st11.html). La fonction de fitness y est également abordée (non seulement par l'équité seule, mais avec sa dilution par le drawdown et le nombre de transactions).

 
iliarr >> :

Si la fonction cible est uniquement le nombre de transactions ou le drawdown, le résultat sera inutile, car le réseau apprendra à entrer/sortir du marché souvent et sans but, ou à éviter les drawdowns.....

Je pense également qu'il ne sera pas d'une grande utilité, c'est pourquoi j'ai écrit "par souci d'intérêt".

iliarr a écrit : >>

vous devez optimiser à la fois les profits et les drawdowns... si je me souviens bien, JGAP vous permet d'avoir une fonction cible avec plusieurs sorties...

C'est ce dont je parle, l'optimisation multicritères. Hmm, j'ai pensé, "Oh, mon Dieu, quel terme", mais il est utilisé depuis longtemps... optimisation multicritères

Je pense qu'il ne devrait pas y avoir plusieurs fonctions de fitness ("...JGAP vous permet d'avoir une fonction cible avec plusieurs sorties..."), mais une seule, mais avec plusieurs critères nécessaires. Je ne fais que spéculer sur la façon d'aborder cette question discrètement et de la prendre par les narines... Quelqu'un peut-il conseiller la littérature sur le sujet ?

marketeer a écrit(a) >>

Si un réseau est entraîné sans professeur pour réaliser des profits hypothétiquement illimités, il faut garder à l'esprit que les entrées imposent toujours un plafond à la taille des profits d'en haut. A la période d'apprentissage choisie, nous pouvons estimer le montant qui ne peut pas être dépassé (par un lot constant, par la stratégie choisie). Nous pouvons donc calculer le ratio d'apprentissage du net à cette période comme le ratio du profit maximum théorique possible sur celui que le net donne. Ensuite, des estimations similaires sont effectuées pour la période de validation, et les ratios sont comparés...

Je suis d'accord avec iliarr. Nous aurons un ajustement


Hmm, en écrivant ceci, Daniil m'a devancé, il parle aussi de la même chose.

 
Daniil >> :

Ilya, je pense que l'article paru dans Currency Speculator (http://www.spekulant.ru/archive/2004_11_st11.html) pourrait vous intéresser. La fonction de fitness y est également abordée (non seulement par l'équité, mais avec sa dilution par le drawdown et le nombre de transactions).

Article intéressant. >>Merci.

Le plus intéressant pour moi était :

-la définition de l'auteur de la fonction cible "Fit = Profit/(l+Prosadka/ 1 0 + S t o p / 1 0 ) * (CountTrade/10) ;" Je pensais à un problème similaire, mais voici une solution toute prête...

- Extraction du MTS avec un algorithme génétique. Une idée bien formulée est la moitié de la solution... Il y a beaucoup d'avantages à cette approche... Je vais devoir réfléchir sérieusement à la manière de l'implémenter mieux et plus facilement...


En ce moment, grâce à :

lea a écrit >>

Quelqu'un s'est-il essayé à la méthode des composantes principales (aussi appelée "analyse en composantes principales" ou "ACP") ?

Je suis très intéressé par la compression de l'information introduite dans le réseau neuronal en éliminant la corrélation.

 
rip >> :

J'ai essayé de faire un réseau convolutif plus tôt, pour le test j'ai pris des séries temporelles M5, réseau 48-x-48, la série a été réduite à une forme symétrique par rapport à 0. La fonction d'activation th(). Je n'ai donc pas réussi à obtenir une erreur supérieure à 0,1 sur l'échantillon test.

Donc j'ai dû mal l'utiliser, ou le faire cuire.

J'ai moi-même travaillé sur la compression des images. Parfois l'erreur est nulle, parfois non, cela dépend du degré de compression (nombre de composantes principales) et de l'informativité des entrées.

Essayez avec des exemples simples.

 

Voici quelques livres sur l'optimisation. Je viens de le télécharger, il est encore chaud.

........ ne semble pas pouvoir s'attacher. Je l'ai eu sur http://torrents.ru

 
lea >> :

Et vous avez calculé tout ça en quoi ? MathCad/MathLab ?

J'ai du mal à le croire moi-même, mais le calcul a été fait dans Excel. IMHO, c'est un peu mieux que Matcad en termes de compréhension (visualisation du processus de calcul plutôt que de l'état final).