L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1957

 
elibrarius:

C'est vrai. Ce serait une bonne idée de décrire tout de suite la séquence d'actions...
En repensant à votre description, je suppose la séquence suivante :

1. Calculer la corrélation de tous les prédicteurs sur le train
2. Construisez l'arbre
3. Sur le dernier fractionnement, rappelez-vous, par exemple, les 100 derniers meilleurs fractionnements. Stockez-en jusqu'à 100, pour avoir l'embarras du choix.
4. Parmi ces 100, choisissez-en 5 non corrélées avec le prédicteur de la meilleure répartition et non corrélées entre elles.

De plus, il n'est pas évident de savoir laquelle de ces 5 divisions différentes choisir ?
Si elle est aléatoire, elle est analogue à la forêt aléatoire, qui donne à chaque arbre des prédicteurs aléatoires et construit un arbre sur ces derniers.
S'il s'agit d'une moyenne, il s'agit à nouveau d'un analogue de la forêt aléatoire, la forêt obtenue à partir d'arbres aléatoires trouve la moyenne arithmétique.

Maintenant, vous avez raison !

C'est pourquoi lesforêts aléatoires sont aléatoires, elles sont pleines de déchets et les conditions décrites ci-dessus ne sont pas nécessairement vraies, bien qu'il puisse y avoir des situations similaires, et il est possible qu'un modèle réussi puisse naître d'une sorte de décomposition similaire. Ici, cependant, il y aura un processus plus contrôlé.

On va peser les poids de chaque fractionnement dans la feuille bien sûr, et peut-être qu'on va donner les mêmes coefficients, on peut prendre des coefficients sur la même histoire. C'est ce que je fais maintenant en général lorsque j'assemble un modèle à partir de feuilles.

 
Valeriy Yastremskiy:

Nah, les actions analogues sont la somme, la soustraction, la multiplication, la division et éventuellement des dépendances logarithmiques plus complexes, des relations de pouvoir. Et ce ne sont pas des calculs, mais des jauges analogiques dans chaque cellule. Et les DACs et ADCs sont une entrée-sortie, ils ne participent pas aux calculs, mais fournissent le numérique.

Dans l'architecture Neumann, les procédures et les données sont stockées en mémoire et il n'y a pas d'accès parallèle aux procédures et aux données ; l'accès aux données, puis aux procédures, et enfin aux données, d'où les limitations du traitement des données. Et ici, les procédures sont stockées dans chaque cellule par petit dispositif et il y a un accès à la procédure à la fois, avec l'accès aux données.

Voici les données que je ne comprends pas, est-ce au conditionnel, chaque instruction a un accès direct à la mémoire et aux résultats du calcul sans le convoyeur ?

 
Aleksey Vyazmikin:

Maintenant, vous avez raison !

Les forêts aléatoires sont aléatoires parce qu'elles sont pleines de déchets et que les conditions décrites ne sont pas nécessairement remplies, bien qu'il puisse y avoir des situations similaires et qu'il soit possible qu'un modèle réussi soit obtenu par des pannes similaires. Ici, cependant, il y aura un processus plus contrôlé.

On va peser les poids de chaque fractionnement dans la feuille, bien sûr, et peut-être qu'on va donner les mêmes coefficients, on peut prendre des coefficients sur la même histoire. C'est ainsi que je procède maintenant, en général, lorsque j'assemble un modèle à partir de feuilles.

Je ne comprends pas la dernière étape, à savoir le choix de l'une des cinq divisions.
 
elibrarius:
Je n'ai pas compris la dernière étape - lequel des 5 splits choisir ?

Les relevés des 5 splits doivent être pris en compte, ce qui augmente la stabilité.

Supposons que la meilleure répartition se voit attribuer un poids de 0,6, et que les quatre autres se voient attribuer 0,1 chacun. Si la somme donne 0,8 ou un autre score, déterminé par échantillonnage, alors la réponse est vraiment "1" ou l'autre classe attendue dans la feuille.

Nous devons également vérifier le taux de rappel, c'est-à-dire le nombre de rappels que les splits ont sur ce sous-échantillon.
 
Aleksey Vyazmikin:

Ce que je ne comprends pas, c'est que les données sont notionnelles, chaque instruction a un accès direct à la mémoire et aux résultats du calcul sans transporteur ?

Il n'y a pas de "données", seulement des électrons dont le courant est contrôlé par des transistors, etc. L'architecture NS elle-même est imprimée sur la carte, et non sous forme numérique. Ils fabriquent depuis longtemps de tels réseaux neuronaux analogiques sous la forme de coprocesseurs, par exemple dans les iPhones.

Il n'y a rien de nouveau dans cet article.
 
Maxim Dmitrievsky:

il n'y a pas de "données", juste des électrons dont le courant est contrôlé par des transistors, etc. L'architecture NS elle-même est imprimée sur la carte, et non sous forme numérique. Ils fabriquent depuis longtemps de tels réseaux neuronaux analogiques sous la forme de coprocesseurs, par exemple dans les iPhones.

Il n'y a rien de nouveau dans cet article.

Et j'ai compris que nous parlons de calculs dynamiques et non statiques, prédéterminés.

 
Aleksey Vyazmikin:

Et j'ai compris qu'il s'agissait de calculs dynamiques, et non de calculs statiques et prédéterminés.

Par exemple, le signal de la matrice de la caméra de l'iPhone est envoyé directement au NS analogique, en contournant la numérisation. Le NS pré-traite l'image pour en améliorer la qualité (filtrer le bruit, etc.).

puis il est converti en images numériques

 
Aleksey Vyazmikin:

Si je comprends bien, nous parlons de calculs dynamiques, et non de calculs statiques et prédéterminés.

Une analogie approximative est celle des vannes électroniques et des compresseurs. Bien sûr, les dispositifs dans les cellules sont statiques, mais ils sont nombreux et on y accède en parallèle). Et les calculs peuvent être dynamiques, si on change le signal d'entrée, on obtient une sortie dynamique.

 
Aleksey Vyazmikin:

Les relevés des 5 splits doivent être pris en compte, ce qui augmente la stabilité.

Supposons que nous donnions un poids de 0,6 à la meilleure répartition, et de 0,1 aux quatre autres, et si la somme donne 0,8 ou une autre valeur, déterminée par échantillonnage, alors nous supposons que la réponse est vraie "1" ou une autre classe, ce qui est attendu dans la feuille de travail.

Vous devez également vérifier le rappel, c'est-à-dire le nombre de rappels que les splits ont sur ce sous-échantillon.
Le fractionnement le plus propre sera mélangé à des fractionnements moins propres. C'est-à-dire que nous aggravons le résultat sur le plateau, cela n'a pas d'importance en principe. Mais il n'est pas sûr que cela améliore le résultat au test, c'est-à-dire la généralisabilité. Quelqu'un devrait essayer... Personnellement, je ne pense pas que la généralisation sera meilleure que le cas de l'échafaudage.

Il est beaucoup plus facile de limiter la profondeur de l'arbre et de ne pas faire la dernière fente, en s'arrêtant à la précédente. Nous nous retrouverons avec la même feuille moins claire que si nous faisions une division supplémentaire. Votre option donnerait quelque chose entre les deux, que nous fassions un split ou pas. Par exemple, avec votre méthode, vous ferez la moyenne de la feuille au 7ème niveau de profondeur. Elle sera légèrement plus propre que la feuille de niveau 6. Je pense que la généralisation ne changera pas grand-chose, et c'est beaucoup de travail pour tester l'idée. Vous pouvez également faire la moyenne de plusieurs arbres avec les niveaux de profondeur 6 et 7 - vous obtiendrez approximativement le même résultat que votre méthodologie.
 
Aleksey Vyazmikin:

Une sorte d'action sur les ondes en substance ? Les données entrantes sont converties en un polynôme, puis le polynôme est converti en une onde et les ondes sont en quelque sorte "heurtées/fusionnées" ?

Eh bien, oui.

Des tentatives de construction d'ordinateurs analogiques ont déjà eu lieu, mais elles étaient soit très lentes, soit gourmandes en énergie.