L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2147

 
RStudio AI Blog: FNN-VAE for noisy time series forecasting
RStudio AI Blog: FNN-VAE for noisy time series forecasting
  • 2020.07.31
  • blogs.rstudio.com
This post did not end up quite the way I’d imagined. A quick follow-up on the recent Time series prediction with FNN-LSTM, it was supposed to demonstrate how noisy time series (so common in practice) could profit from a change in architecture: Instead of FNN-LSTM, an LSTM autoencoder regularized by false nearest neighbors (FNN) loss, use...
 
mytarmailS:

Alors vous ne l'avez pas regardé, ou vous l'avez fait, mais vous n'avez pas écouté...


L'espace contextuel, la façon dont nous pensons, la façon dont cela peut être implémenté dans le code...

VAE , CNN est le même mais comme cas particuliers de création d'attributs secondaires à partir de primaires, il dit comment travailler avec n'importe quelles données.

L'espace contextuel est mis en œuvre par le biais de récurrences et autres. Qu'a-t-il inventé ?

 
Maxim Dmitrievsky:

Il y a beaucoup d'eau là-dedans, je n'ai vu aucune référence au code.

il y a 12 heures de code), il veut juste simuler le cerveau entier, pas seulement la calculatrice mais aussi la mémoire.

 
mytarmailS:

Eh bien, c'est un sujet de 12 heures) il veut juste simuler le cerveau entier, pas seulement la calculatrice mais aussi la mémoire.

la mémoire est modélisée par des états latents dans des récurrences

Je pense qu'il est juste facétieux.

 
Maxim Dmitrievsky:

L'espace contextuel est mis en œuvre par des récurrences et ainsi de suite. Qu'a-t-il inventé ?

Je ne veux pas expliquer, je ne suis pas sûr de le comprendre moi-même ...

En termes simples, certaines transformations sont appliquées aux attributs, des milliards de transformations (salut MGUA), et s'il y a une transformation qui donne une certaine "bonne" réponse sur les attributs, alors nous avons trouvé un "contexte", il y a donc des milliers de contextes et nous nous déplaçons en quelque sorte vers un nouvel espace d'attributs (contextes)...

Et maintenant, nous n'avons même pas besoin de regarder les caractéristiques primaires, la reconnaissance est basée sur le contexte...


Pourquoi est-ce 1000 fois mieux que la technologie d'aujourd'hui, eh bien vous devez regarder la vidéo, mais croyez-moi, cela vaut la peine de la regarder, c'est cette approche qui a l'avenir.

Il a beaucoup de vidéos

 
mytarmailS:

Je ne vais pas l'expliquer, je ne suis pas sûr de le comprendre moi-même...

En termes simples, certaines transformations sont appliquées aux caractéristiques, des milliards de transformations (bonjour MGUA), et s'il y a une transformation qui donne une certaine "bonne" réponse aux caractéristiques, alors nous avons trouvé un "contexte", il y a donc des milliers de contextes et nous nous déplaçons en quelque sorte vers un nouvel espace de caractéristiques (contextes)...

Et maintenant, nous n'avons même pas besoin de regarder les caractéristiques primaires, la reconnaissance est basée sur le contexte...


Pourquoi est-elle 1000 fois meilleure que la technologie d'aujourd'hui, eh bien vous devez regarder la vidéo, mais croyez-moi, elle vaut la peine d'être regardée, c'est cette approche qui a l'avenir.

Il a beaucoup de vidéos.

J'ai feuilleté les vidéos... quand je suis arrivé à des bêtises sur les pyramides, je l'ai éteint).

D'après ce que j'ai compris, il défend une sorte de théorie du cerveau ondulatoire. ésotérique, en somme.

J'ai l'impression que c'est un moulin à paroles.

 
Maxim Dmitrievsky:

J'ai feuilleté les vidéos... quand je suis arrivé à des bêtises sur les pyramides, je l'ai éteint ;))

J'ai l'impression d'être un moulin à paroles.

Ne le parcourez pas, mais regardez les vidéos, qui ne traitent pas des pyramides, bien sûr. C'est mauvais que l'homme soit polyvalent ?

C'est un mec cool, c'est un chercheur en IA...



Si vous formez une grille sur les SEALs

et lui donner la photo d'un canapé rayé, ça irait si ce n'était pas dans la classe.

Mais avec le contexte, elle reconnaît qu'il y avait un chat. Et il explique comment et pourquoi, et nous pensons comme ça, à travers des contextes.

 
mytarmailS:

Ne le feuilletez pas. Regardez, mais pas sur les pyramides, bien sûr. Qu'y a-t-il de mal à être polyvalent ?

Un gars cool, un chercheur en IA...

Qu'y a-t-il à voir ? Où sont les codes NS ? Ce n'est pas intéressant d'écouter une heure de diarrhée verbale.

 
Maxim Dmitrievsky:

Qu'est-ce qu'on regarde ? Où sont les codes NS ? Une heure de diarrhée verbale n'est pas drôle à écouter.

Je ne sais pas, j'ai tout regardé la bouche ouverte...

Même les pyramides....

 
mytarmailS:

Je ne sais pas, j'ai tout regardé la bouche ouverte...

Même les pyramides....

ça m'a fait penser aux divagations d'un lunatique).