L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 586

 
Yuriy Asaulenko:
Essayez donc d'en trouver un.)) Un tel MLP serait optimal.
La régularisation et l'abandon sont votre tout).
 
Yuriy Asaulenko:

Hier, j'ai trouvé une convolution NS - normalement utilisée pour la reconnaissance d'images. Naturellement, toutes les commodités sont disponibles - formation, etc. Conçu pour être utilisé en Python.

Il y a aussi des récurrences, mais ce n'est pas encore très intéressant.

Comme le réseau convolutif n'est pas entièrement maillé, nous pouvons augmenter considérablement le nombre de neurones sans perte de performance. Mais il est nécessaire de comprendre les détails, je ne suis pas encore entré dans les détails.

Une description populaire -https://geektimes.ru/post/74326/

Regardez attentivement le HTM - je vous ai écrit précédemment. Sa structure implique l'utilisation du contexte. Et il existe une implémentation Python.

 

A propos de la non-stationnarité de Haykin

C'est ce que j'ai écrit (et pas seulement), et c'est comme si tout avait été prouvé il y a longtemps :)


 

Il se trouve que je sais qu'il existe une nouvelle version du paquet gbm qui n'est pas encore dans les dépôts cran.
https://github.com/gbm-developers/gbm3

installation :

install.packages("devtools")
library("devtools")
install_github("gbm-developers/gbm3")


après cela, la bibliothèque mise à jour dans r s'appelle gbm3 :

library("gbm3")

J'ai juste changé le nom de la bibliothèque de gbm à gbm3 dans le code du script r, le reste du code a fonctionné sans changement.
Lorsque je recherchais les paramètres du modèle gbm, il arrivait que l'entraînement consomme beaucoup de RAM et que l'ordinateur se bloque pendant une douzaine de minutes. Avec cette nouvelle version, cela ne s'est pas encore produit, je vous recommande de l'essayer.

 
Maxim Dmitrievsky:

A propos de la non-stationnarité de Haykin

Sur ce que j'ai (et pas seulement) et écrit, et ici comme si tout est déjà prouvé depuis longtemps :)


Je ne comprends pas du tout le texte sur la non-stationnarité : l'arrivée de nouvelles observations détruit les relations précédemment révélées ? C'est peut-être dû à mon ignorance de la NS, mais il y a exactement une ligne d'observations prise en compte dans les arbres et il est impossible de détruire des arbres précédemment construits. Les mêmes arbres peuvent apparaître dans le futur, mais ils appartiendront à une classe différente, mais les anciens resteront tous intacts.


PS.

Il y a des arbres qui tiennent compte de quelques lignes lors de la construction d'un arbre... mais cela ne semble pas changer l'essence

 
SanSanych Fomenko:

Je ne comprends pas du tout le texte sur la non-stationnarité : l'arrivée de nouvelles observations détruit les relations précédemment identifiées ? Cela peut être dû à mon ignorance de la NS, mais dans les arbres, une seule ligne d'observations est prise en compte et il est impossible de détruire les arbres précédemment construits. Les mêmes arbres peuvent apparaître dans le futur, mais ils appartiendront à une classe différente, mais les anciens resteront tous intacts.


PS.

Il y a des arbres qui tiennent compte de quelques lignes lors de la construction d'un arbre... mais ça ne semble pas changer le point.


Non, cela se résume à construire des séries pseudo-stationnaires de manière cohérente, en réapprenant autant que possible... c'est en gros ce que je fais.

ou construire des filtres linéaires/non-linéaires... Je comprends qu'avant cela il faut considérer la dynamique du changement d'influence des prédicteurs sur la cible, et essayer d'adapter la sortie via les coefficients du filtre, en fonction des changements dans l'environnement

et bien, pas grand chose en général. Au moins dans ce chapitre.

 
Maxim Dmitrievsky:

A propos de la non-stationnarité de Haykin

C'est ce que j'ai écrit (et pas seulement), et ici c'est comme si tout était prouvé depuis longtemps :)


De toute évidence, M. Heikin n'était pas un imbécile. L'extrait de la page 133 parle directement de ce fait.
 
Maxim Dmitrievsky:

A propos de la non-stationnarité de Haykin

C'est ce que j'ai écrit (et pas seulement), et ici c'est comme si tout était prouvé depuis longtemps :)

Enfin, Maxim a commencé à lire la théorie au lieu de raconter des conneries et d'essayer de réinventer les bicyclettes).
 
Dmitriy Skub:

Jetez un coup d'œil à HTM - je vous ai déjà écrit. Sa structure fait appel au contexte. Et il existe une implémentation en Python.

Je n'ai rien trouvé dans notre correspondance. Qu'est-ce que le HTM et qu'est-ce que c'est ?

En fait, j'ai commencé à étudier Python il y a 2-3 jours. Je ne comprends pas encore grand-chose). Donc, il va me falloir un peu de temps pour me mettre au travail.

 
Yuriy Asaulenko:

Je n'ai rien trouvé dans notre correspondance. Qu'est-ce que le HTM et qu'est-ce que c'est ?

En fait, je viens de commencer à étudier Python il y a 2 ou 3 jours. Je ne comprends pas encore grand-chose). Il faut donc attendre un peu avant de passer aux choses sérieuses.

Vous pouvez commencer par ici : https://numenta.org/implementations/

Il existe un livre en russe - la traduction est presque adéquate.

Implementations
  • Numenta
  • numenta.org
Numenta.org • Home of the HTM Community